KR101951874B1 - Real-time incording device and real-time incording method - Google Patents

Real-time incording device and real-time incording method Download PDF

Info

Publication number
KR101951874B1
KR101951874B1 KR1020170003453A KR20170003453A KR101951874B1 KR 101951874 B1 KR101951874 B1 KR 101951874B1 KR 1020170003453 A KR1020170003453 A KR 1020170003453A KR 20170003453 A KR20170003453 A KR 20170003453A KR 101951874 B1 KR101951874 B1 KR 101951874B1
Authority
KR
South Korea
Prior art keywords
data
sensing
image data
image
real
Prior art date
Application number
KR1020170003453A
Other languages
Korean (ko)
Other versions
KR20180082141A (en
Inventor
신성일
Original Assignee
주식회사 무스마
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 무스마 filed Critical 주식회사 무스마
Priority to KR1020170003453A priority Critical patent/KR101951874B1/en
Publication of KR20180082141A publication Critical patent/KR20180082141A/en
Application granted granted Critical
Publication of KR101951874B1 publication Critical patent/KR101951874B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

실시간 인코딩 장치는, 제1 영상 데이터를 생성하는 카메라 모듈; 외부 센서로부터 센싱 데이터를 수신하는 센싱 모듈; 상기 센싱 데이터를 시각화하여 제2 영상 데이터를 생성하고, 상기 제1 영상 데이터 및 상기 제2 영상 데이터를 병합하여 출력 영상 데이터를 생성하는 영상 처리 모듈; 상기 출력 영상 데이터에 기초하여 영상을 표시하는 표시 모듈; 상기 출력 영상 데이터를 인코딩하여 부호화 데이터를 생성하는 코덱 모듈; 및 상기 부호화 데이터를 외부 장치에 전송하는 전송 모듈을 포함 할 수 있다.The real-time encoding apparatus includes a camera module for generating first image data; A sensing module for receiving sensing data from an external sensor; An image processing module for generating second image data by visualizing the sensing data, and merging the first image data and the second image data to generate output image data; A display module for displaying an image based on the output image data; A codec module for encoding the output image data to generate encoded data; And a transmission module for transmitting the encoded data to an external device.

Description

실시간 인코딩 장치 및 실시간 인코딩 방법{REAL-TIME INCORDING DEVICE AND REAL-TIME INCORDING METHOD}REAL-TIME INCORDING DEVICE AND REAL-TIME INCORDING METHOD [0002]

본 발명은 실시간 인코딩 장치에 관한 것으로, 보다 상세하게는 촬영된 동영상 및 센서 데이터를 인코딩하는 실시간 인코딩 장치 및 실시간 인코딩 방법에 관한 것이다.The present invention relates to a real-time encoding apparatus, and more particularly, to a real-time encoding apparatus and a real-time encoding method for encoding captured moving image and sensor data.

이동 단말기(예를 들어, 스마트폰)은 카메라 및 다양한 센서들을 포함하고, 카메라를 이용하여 동영상을 촬영하며, 센서들(예를 들어, 자이로 센서, 가속도 센서, GPS 센서 등)을 이용하여 센서 데이터를 생성할 수 있다.A mobile terminal (e.g., a smart phone) includes a camera and various sensors, photographs a moving picture using a camera, and uses sensors (e.g., a gyro sensor, an acceleration sensor, a GPS sensor, Lt; / RTI >

이동 단말기는 센서 데이터(예를 들어, 이동 단말기의 이동 속도)를 레이어(Layer) 형태로 생성하여 동영상과 함께 표시할 수 있다. 즉, 이동 단말기는 시각화된 센서 데이터를 동영상에 오버레이 할 수 있다.The mobile terminal can generate the sensor data (for example, the moving speed of the mobile terminal) in the form of a layer and display it together with the moving image. That is, the mobile terminal can overlay the visualized sensor data on the moving image.

한편, 이동 단말기는 다른 이동 단말기에 상기 동영상에 대한 동영상 데이터 및 센서 데이터를 전송할 수 있고, 다른 이동 단말기는 이동 단말기에서 표시되는 영상과 실질적으로 동일한 영상을 표시할 수 있다. 다만, 이동 단말기 및 다른 이동 단말기는 센서 데이터를 시각화하기 위한 별도의 어플리케이션가 요구된다.Meanwhile, the mobile terminal can transmit the moving image data and the sensor data to the other mobile terminal, and the other mobile terminal can display the image substantially the same as the image displayed on the mobile terminal. However, the mobile terminal and other mobile terminals require a separate application for visualizing the sensor data.

본 발명의 일 목적은 다른 이동 단말기에서 추가적인 어플리케이션 없이 센서 데이터를 확인할 수 있도록 하는 실시간 인코딩 장치를 제공하는 것이다.It is an object of the present invention to provide a real-time encoding device that enables other mobile terminals to confirm sensor data without additional applications.

본 발명의 일 목적은 다른 이동 단말기에서 추가적인 어플리케이션 없이 센서 데이터를 확인할 수 있도록 하되, 전송 데이터의 크기를 최소화하는 실시간 인코딩 방법을 제공하는 것이다.It is an object of the present invention to provide a real-time encoding method that allows sensor data to be verified without additional application in another mobile terminal, but minimizes the size of transmission data.

본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 실시간 인코딩 장치는, 제1 영상 데이터를 생성하는 카메라 모듈; 외부 센서로부터 센싱 데이터를 수신하는 센싱 모듈; 상기 센싱 데이터를 시각화하여 제2 영상 데이터를 생성하고, 상기 제1 영상 데이터 및 상기 제2 영상 데이터를 병합하여 출력 영상 데이터를 생성하는 영상 처리 모듈; 상기 출력 영상 데이터에 기초하여 영상을 표시하는 표시 모듈; 상기 출력 영상 데이터를 인코딩하여 부호화 데이터를 생성하는 코덱 모듈; 및 상기 부호화 데이터를 외부 장치에 전송하는 전송 모듈을 포함 할 수 있다.In order to accomplish one object of the present invention, a real-time encoding apparatus according to embodiments of the present invention includes: a camera module for generating first image data; A sensing module for receiving sensing data from an external sensor; An image processing module for generating second image data by visualizing the sensing data, and merging the first image data and the second image data to generate output image data; A display module for displaying an image based on the output image data; A codec module for encoding the output image data to generate encoded data; And a transmission module for transmitting the encoded data to an external device.

일 실시예에 의하면, 상기 표시 모듈은 상기 제2 영상 데이터에 대응하는 영상을 표시 영역 중 제2 표시 영역을 통해 표시하고, 상기 영상 처리 모듈은 외부로부터 제공되는 영역 선택 신호에 기초하여 상기 제2 표시 영역의 위치, 크기, 형상 중 적어도 하나를 결정 할 수 있다.According to an embodiment, the display module displays an image corresponding to the second image data through a second display area of the display area, and the image processing module displays the image corresponding to the second image data, At least one of the position, size, and shape of the display area can be determined.

일 실시예에 의하면, 상기 센싱 데이터는 온도, 압력, 레벨, 전압 및 전류 각각에 대한 서브 센싱 데이터들을 포함하고, 상기 영상 처리 모듈은 상기 서브 센싱 데이터들 중 선택된 하나에 기초하여 상기 제2 영상 데이터를 생성 할 수 있다.According to an embodiment, the sensing data includes sub-sensing data for each of temperature, pressure, level, voltage, and current, and the image processing module may generate the second image data based on a selected one of the sub- Lt; / RTI >

일 실시예에 의하면, 상기 실시간 인코딩 장치는, 상기 센싱 데이터를 축적한 축적 데이터를 저장하는 메모리 장치를 더 포함하고, 상기 영상 처리 모듈은 상기 센싱 데이터가 생성된 시점을 포함하는 대상 구간에 대응하는 축적 데이터를 이용하여 상기 제2 영상 데이터를 생성 할 수 있다.According to an embodiment of the present invention, the real-time encoding apparatus further includes a memory device for storing the accumulated data in which the sensing data is accumulated, wherein the image processing module includes: And the second image data can be generated using the accumulated data.

일 실시예에 의하면, 상기 영상 처리 모듈은 상기 센싱 데이터에 포함된 센싱 값들을 주기적으로 추출하고, 센싱 값들을 추출한 시점 및 상기 센싱 값들에 기초하여 자막 데이터를 생성 할 수 있다.According to an embodiment, the image processing module periodically extracts the sensing values included in the sensing data, and generates the caption data based on the time at which the sensing values are extracted and the sensing values.

일 실시예에 의하면, 상기 표시 모듈은 상기 자막 데이터에 기초하여 표시 영역 중 제3 표시 영역에 상기 센싱 값을 표시 할 수 있다.According to an embodiment, the display module may display the sensing value in a third display area of the display area based on the caption data.

본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 실시간 인코딩 방법은 카메라, 센서와 연동되는 실시간 인코딩 장치에서 수행될 수 있다. 상기 실시간 인코딩 방법은, 상기 센서로부터 제공되는 센싱 데이터를 시각화하여 제2 영상 데이터를 생성하는 단계; 상기 카메라로부터 제공되는 제1 영상 데이터 및 상기 제2 영상 데이터를 병합하여 출력 영상 데이터를 생성하는 단계; 상기 출력 영상 데이터를 인코딩하여 부호화 데이터를 생성하는 단계; 및 상기 부호화 데이터를 외부 장치에 전송하는 단계를 포함 할 수 있다.In order to accomplish one object of the present invention, a real-time encoding method according to embodiments of the present invention can be performed in a real-time encoding device interlocked with a camera and a sensor. Wherein the real-time encoding method includes: generating second image data by visualizing sensed data provided from the sensor; Generating output image data by merging first image data and second image data provided from the camera; Encoding the output image data to generate encoded data; And transmitting the encoded data to an external device.

본 발명의 실시예들에 따른 실시간 인코딩 장치는, 센싱 데이터를 시각화하여 센싱 영상 데이터를 생성하고, 배경 영상 데이터 및 센싱 영상 데이터를 병합/코딩하여 부호화 데이터를 생성함으로써, 부호화 데이터를 수신하는 원격지 단말가 별도의 어플리케이션을 구비하지 않더라도 센싱 데이터를 확인할 수 있도록 할 수 있다.A real-time encoding apparatus according to embodiments of the present invention generates sensed image data by visualizing sensed data, generates encoded data by merging / coding background image data and sensed image data, It is possible to check the sensing data even if a separate application is not provided.

본 발명의 실시예들에 따른 실시간 인코딩 방법은 배경 영상 데이터에 시각화된 센싱 데이터(또는, 센싱 영상 데이터, 자막 데이터)를 실시간으로 병합하고, 범용 코덱을 이용하여 병합된 데이터를 인코딩함으로써 실시간 스트리밍을 가능하도록 할 수 있다. In the real-time encoding method according to the embodiments of the present invention, real-time streaming is performed by merging sensed data (or sensing video data, caption data) visualized in background image data in real time and encoding the merged data using a general- .

다만, 본 발명의 효과는 상기 효과들로 한정되는 것이 아니며, 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.However, the effects of the present invention are not limited to the above effects, and may be variously extended without departing from the spirit and scope of the present invention.

도 1은 본 발명의 실시예들에 따른 모바일 현장 모니터링 시스템을 나타내는 블록도이다.
도 2는 도 1의 모바일 현장 모니터링 시스템에 포함된 실시간 인코딩 장치의 일 예를 나타내는 블록도이다.
도 3a는 도 2의 실시간 인코딩 장치에서 표시되는 센서 데이터의 일 예를 나타내는 도면이다.
도 3b는 도 2의 실시간 인코딩 장치에서 센서 데이터를 선택하는 일 예를 설명하는 도면이다.
도 4는 도 2의 실시간 인코딩 장치에 포함된 영상 처리 모듈의 일 예를 나타내는 블록도이다.
도 5는 도 4의 영상 처리 모듈에서 센서 데이터를 시각화하는 일 예를 나타내는 도면이다.
도 6은 도 2의 실시간 인코딩 장치를 알고리즘으로 구현한 일 예를 나타내는 블록도이다.
도 7은 본 발명의 실시예들에 따른 실시간 인코딩 방법을 나타내는 순서도이다.
1 is a block diagram illustrating a mobile on-site monitoring system in accordance with embodiments of the present invention.
2 is a block diagram illustrating an example of a real-time encoding device included in the mobile field monitoring system of FIG.
3A is a diagram showing an example of sensor data displayed in the real-time encoding apparatus of FIG.
FIG. 3B is a view for explaining an example of selecting sensor data in the real-time encoding apparatus of FIG.
4 is a block diagram illustrating an example of an image processing module included in the real-time encoding apparatus of FIG.
5 is a diagram showing an example of visualizing sensor data in the image processing module of FIG.
FIG. 6 is a block diagram illustrating an example of real-time encoding apparatus of FIG. 2 implemented as an algorithm.
7 is a flowchart illustrating a real-time encoding method according to embodiments of the present invention.

개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of the disclosed technique is merely an example for structural or functional explanation and the scope of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the disclosed technology should be understood to include equivalents capable of realizing technical ideas.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms " first ", " second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It should be understood that the singular " include " or " have " are to be construed as including a stated feature, number, step, operation, component, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (e.g., a, b, c, etc.) is used for convenience of explanation, the identification code does not describe the order of each step, Unless otherwise stated, it may occur differently from the stated order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the disclosed technology belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the related art and can not be interpreted as having ideal or overly formal meaning unless explicitly defined in the present application.

도 1은 본 발명의 실시예들에 따른 모바일 현장 모니터링 시스템을 나타내는 블록도이다.1 is a block diagram illustrating a mobile on-site monitoring system in accordance with embodiments of the present invention.

도 1을 참조하면, 모바일 현장 모니터링 시스템(100)은 실시간 인코딩 장치(110), 센서(120) 및 원격지 단말(130)을 포함할 수 있다. 실시간 인코딩 장치(110) 및 원격지 단말(130)은 네트워크를 통해 연결될 수 있다. 센서(120)는 실시간 인코딩 장치(110)에 직접적으로 연결되거나, 네트워크를 통해 간접적으로 연결될 수 있다. 예를 들어, 센서(120)는 유선 케이블, 블루투스와 같은 근거리 무선 기술을 이용하여 실시간 인코딩 장치(100)에 연결될 수 있다.Referring to FIG. 1, the mobile field monitoring system 100 may include a real-time encoding device 110, a sensor 120, and a remote terminal 130. The real-time encoding device 110 and the remote terminal 130 may be connected via a network. The sensor 120 may be directly coupled to the real-time encoding device 110, or indirectly via a network. For example, the sensor 120 may be connected to the real-time encoding device 100 using a short-range wireless technology such as a wired cable, Bluetooth.

실시간 인코딩 장치(110)는 주변의 객체들을 촬영하여 배경 영상을 표시하되, 센서(120)로부터 제공되는 센싱 데이터(또는, 센서 데이터)를 시각화하여 표시할 수 있다. 예를 들어, 실시간 인코딩 장치(110)는 용접 장치에 대한 배경 영상을 표시하되, 용접 장치의 특성(예를 들어, 전류, 전압, 압력)을 감지하는 센서(120)로부터 제공되는 센싱 데이터들을 배경 영상 상에 표시할 수 있다. 여기서, 센싱 데이터들은 텍스트 형태, 그래프 형태 등으로 표시될 수 있다.The real-time encoding device 110 can visualize the sensing data (or sensor data) provided from the sensor 120 by displaying the background image by photographing surrounding objects. For example, the real-time encoding device 110 displays the background image for the welding device, and the sensing data provided from the sensor 120 that senses the characteristics (e.g., current, voltage, pressure) Can be displayed on the image. Here, the sensing data may be displayed in a text form, a graph form, or the like.

또한, 실시간 인코딩 장치(110)는 배경 영상에 대한 배경 영상 데이터 및 센싱 데이터를 시각화한 센싱 영상 데이터를 하나의 영상 데이터로로 병합하고, 영상 데이터를 코딩하여 부호화 데이터를 생성하며, 부호화된 데이터를 원격지 단말(130)에 제공할 수 있다. 예를 들어, 실시간 인코딩 장치(110)는 배경 영상 데이터 및 센싱 데이터를 병합하여 도 1에 도시된 표시 영상에 대한 영상 데이터를 생성하고, 범용 코덱(예를 들어, MPEG-4/AAC)를 이용하여 영상 데이터 및 음성 데이터(및 자막 데이터)를 인코딩하여 부호화 데이터를 생성할 수 있다. 여기서, 음성 데이터는 실시간 인코딩 장치(110)를 사용하는 사용자의 음성, 배경 영상과 연관된 소리 등을 포함하고, 자막 데이터는 텍스트 형태로 표현된 센싱 값들을 포함 할 수 있다. 이 경우, 원격지 단말(130)은 별도의 어플리케이션(즉, 센싱 데이터를 시각화하기 위한 별도의 전용 어플리케이션)을 구비하지 않더라도, 부호화 데이터를 디코딩하여 영상 데이터를 획득함으로써, 센서 데이터를 시각적으로 확인할 수 있다.Also, the real-time encoding device 110 merges the background image data for the background image and the sensing image data obtained by visualizing the sensing data into one image data, generates image data by encoding the image data, To the remote terminal 130. For example, the real-time encoding device 110 may combine the background image data and the sensing data to generate image data for the display image shown in FIG. 1 and use a general-purpose codec (for example, MPEG-4 / AAC) So that encoded data can be generated by encoding the video data and the audio data (and the caption data). Here, the audio data may include a user's voice using the real-time encoding device 110, a sound associated with the background image, and the caption data may include sensing values expressed in a text form. In this case, the remote terminal 130 can visually confirm the sensor data by decoding the encoded data and obtaining the image data, even if the remote terminal 130 does not have a separate application (i.e., a separate dedicated application for visualizing the sensing data) .

즉, 본 발명의 실시예들에 따른 실시간 인코딩 장치(110)는 센싱 데이터를 시각화하여 센싱 영상 데이터를 생성하고, 배경 영상 데이터 및 센싱 영상 데이터를 병합/코딩하여 부호화 데이터를 생성함으로써, 부호화 데이터를 수신하는 원격지 단말(130)은 별도의 어플리케이션을 구비하지 않더라도 센싱 데이터를 확인할 수 있다.That is, the real-time encoding apparatus 110 according to embodiments of the present invention generates sensed image data by visualizing sensing data, generates encoded data by merging / coding the background image data and sensed image data, The receiving remote terminal 130 can confirm the sensing data without having a separate application.

특히, 실시간 인코딩 장치(110)는 배경 영상 데이터에 시각화된 센싱 데이터(또는, 센싱 영상 데이터, 자막 데이터)를 실시간으로 병합하고, 범용 코덱을 이용하여 병합된 데이터를 인코딩함으로써 실시간 스트리밍을 가능하도록 할 수 있다. 이 경우, 임의의 원격지 단말(130)은 일반적인 어플리케이션(예를 들어, 일반적인 미디어 플레이어, 영상 통화 어플리케이션 등)만을 이용하여, 배경 영상 및 센싱 값들을 실시간으로 확인할 수 있다.In particular, the real-time encoding device 110 merges visualized sensing data (or sensing video data, caption data) in the background image data in real time and encodes the merged data using the universal codec to enable real-time streaming . In this case, the arbitrary remote terminal 130 can check the background image and the sensing values in real time using only general applications (for example, a general media player, a video call application, etc.).

한편, 센싱 데이터를 시각화하는 기능, 배경 영상 및 시각화된 센싱 데이터를 병합 및 인코딩하는 기능은 실시간 인코딩 프로그램으로 구현되어, 실시간 인코딩 장치(110)에 포함될 수 있다.Meanwhile, the function of visualizing the sensing data, the function of merging and encoding the background image and the visualized sensing data may be implemented by a real-time encoding program and included in the real-time encoding device 110.

센서(120)는 온도 센서, 습도 센서, 전압 센서(또는, 전압계), 전류 센서(또는, 전류계), 레벨 센서(또는, 높이 측정기), 농도 측정 센서(또는, 농도 측정기) 중 적어도 하나를 포함할 수 있다. 즉, 센서(120)는 특정 시스템을 모니터링 하기 위해 사용되는 일반적인 계측 장치들을 포함할 수 있다.The sensor 120 includes at least one of a temperature sensor, a humidity sensor, a voltage sensor (or voltmeter), a current sensor (or ammeter), a level sensor (or a height meter), a density measurement sensor can do. That is, the sensor 120 may include general measurement devices used to monitor a particular system.

센서(120)는 아날로그 형태의 센싱 신호(예를 들어, mA, mV)를 획득하고, 센싱 신호를 디지털 형태의 센싱 데이터로 변환하여 실시간 인코딩 장치(110)에 제공할 수 있다. 예를 들어, 센서(120)는 4-20mA to BLE, RS232-c to BLE 등과 같은 신호 변환기(또는, 아날로그-디지털 변환기(ADC))를 포함하고, 블루투스 기술을 이용할 수 있다.The sensor 120 may acquire an analog type sensing signal (e.g., mA, mV), convert the sensing signal into digital sensing data, and provide the sensing data to the real-time encoding device 110. For example, the sensor 120 includes a signal converter (or an analog-to-digital converter (ADC) such as 4-20 mA to BLE, RS232-to-BLE, etc.) and may use Bluetooth technology.

원격지 단말(130)은 실시간 인코딩 장치(110)와 실질적으로 동일하고, 예를 들어, 스마트폰, 태블핏 컴퓨터, 퍼스널 컴퓨터 등일 수 있다. 다만, 원격지 단말(130)은 실시간 인코딩 기능 또는 실시간 인코딩 프로그램을 포함하지 않을 수 있다.The remote terminal 130 may be substantially the same as the real-time encoding device 110 and may be, for example, a smartphone, a tablet computer, a personal computer, or the like. However, the remote terminal 130 may not include a real-time encoding function or a real-time encoding program.

원격지 단말(130)은 실시간 인코딩 장치(110)로부터 제공되는 부호화 데이터를 범용 코덱을 이용하여 복호화하여 영상 데이터 및 음성 데이터(및 자막 데이터)를 획득할 수 있다. 또한, 원격지 단말(130)은 일반적인 어플리케이션(예를 들어, 일반적인 미디어 플레이어, 영상 통화 어플리케이션)을 통해 영상 데이터 및 음성 데이터(및 자막 데이터)를 출력할 수 있다. 따라서, 원격지 단말(130)을 이용하는 사용자는 별도의 전용 어플리케이션을 구비하지 않더라도 센싱값들을 확인할 수 있다.The remote terminal 130 can decode the encoded data provided from the real-time encoding apparatus 110 using the universal codec to acquire image data and audio data (and caption data). Also, the remote terminal 130 can output video data and audio data (and caption data) through a general application (for example, a general media player, a video call application). Accordingly, the user using the remote terminal 130 can confirm the sensing values even if the user does not have a separate dedicated application.

도 2는 도 1의 모바일 현장 모니터링 시스템에 포함된 실시간 인코딩 장치의 일 예를 나타내는 블록도이다.2 is a block diagram illustrating an example of a real-time encoding device included in the mobile field monitoring system of FIG.

도 2를 참조하면, 센싱 모듈(210), 카메라 모듈(220), 영상 처리 모듈(230), 표시 모듈(240), 코덱 모듈(250), 통신 모듈(260) 및 마이크 모듈(270)을 포함할 수 있다.2, it includes a sensing module 210, a camera module 220, an image processing module 230, a display module 240, a codec module 250, a communication module 260, and a microphone module 270 can do.

센싱 모듈(210)은 센서(120) 로부터 센싱 데이터를 수신할 수 있다. 센싱 모듈(210)은 복수의 센서들로부터 제공되는 센싱 데이터들에 식별부호(예를 들어, ID)를 부여하여 센싱 데이터들을 구분할 수 있다. 도 1에 도시되지 않았으나, 센싱 데이터는 저장 모듈(예를 들어, 메모리 장치)에 저장될 수 있다.The sensing module 210 may receive sensing data from the sensor 120. The sensing module 210 may assign identification codes (e.g., IDs) to the sensing data provided from the plurality of sensors to distinguish the sensing data. Although not shown in FIG. 1, the sensing data may be stored in a storage module (e.g., a memory device).

카메라 모듈(220)은 실시간 인코딩 장치(110) 주변의 영상(즉, 배경 영상)을 획득할 수 있다. 배경 영상은 특정 장치(예를 들어, 용접 장치, 모터 등)에 대한 영상을 포함하거나, 실시간 인코딩 장치(110)를 사용하는 사용자의 영상을 포함할 수 있다. 카메라 모듈(220)은 일반적인 디지털 카메라로 구현되고, 배경 영상에 대한 제1 영상 데이터(또는, 배경 영상 데이터)를 생성할 수 있다.The camera module 220 can acquire an image around the real-time encoding device 110 (i.e., a background image). The background image may include an image for a particular device (e.g., a welding device, a motor, etc.), or may include an image of a user using the real time encoding device 110. The camera module 220 is implemented by a general digital camera and can generate first image data (or background image data) for a background image.

영상 처리 모듈(230)은 센싱 데이터를 시각화 하여 제2 영상 데이터(또는, 센싱 영상 데이터)를 생성하고, 제1 영상 데이터 및 제2 센싱 영상 데이터를 병합하여 영상 데이터(또는, 출력 영상 데이터)를 생성할 수 있다.The image processing module 230 visualizes the sensing data to generate second image data (or sensing image data), merges the first image data and the second sensing image data, and outputs the image data (or output image data) Can be generated.

표시 모듈(240)은 영상 처리 모듈(230)에서 생성된 영상 데이터에 기초하여 영상을 표시할 수 있다. 또한, 표시 모듈(240)은 입력 요소(예를 들어, 터치 스크린)을 포함하고, 사용자로부터 터치 입력을 수신할 수 있다.The display module 240 can display an image based on the image data generated by the image processing module 230. Display module 240 also includes an input element (e.g., a touch screen) and may receive a touch input from a user.

도 3은 도 2의 실시간 인코딩 장치에서 표시되는 센서 데이터의 일 예를 나타내는 도면이고, 도 4는 도 2의 실시간 인코딩 장치에서 센서 데이터를 선택하는 일 예를 설명하는 도면이다.FIG. 3 is a diagram illustrating an example of sensor data displayed in the real-time encoding apparatus of FIG. 2, and FIG. 4 is a diagram illustrating an example of selecting sensor data in the real-time encoding apparatus of FIG.

도 3을 참조하면, 영상 처리 모듈(230)은 복수의 레이어들을 생성하고, 복수의 레이어들에 제1 영상 데이터 및 제2 영상 데이터를 배치하며, 표시 모듈(240)은 복수의 레이어들에 대응하는 표시 영역들(R1 내지 R4)에 영상 데이터(즉, 제1 영상 데이터 및 제2 영상 데이터가 병합된 영상 데이터)를 표시할 수 있다.Referring to FIG. 3, the image processing module 230 generates a plurality of layers, arranges first image data and second image data on a plurality of layers, and the display module 240 corresponds to a plurality of layers (I.e., the image data in which the first image data and the second image data are merged) in the display areas R1 to R4.

도 4를 참조하면, 표시 모듈(240)은 메뉴 아이콘을 통해 사용자의 센싱 영상 타입 선택 요청(예를 들어, 터입 입력 신호)을 수신하고, 이에 대응하여 복수의 센싱 영상 타입들(즉, 시각적으로 표시하고자 하는 센싱 값들의 종류 및 표시 형태(예를 들어, 타코미터, 디지털 미터 등))을 표시할 수 있다. 이후, 표시 모듈(240)은 사용자의 선택 신호(예를 들어, 드래그 앤 드롭 형태의 터치 입력 신호)를 수신할 수 있고, 영상 처리 모듈(230)은 선택 신호에 기초하여 센싱 영상을 표시할 표시 영역의 위치, 크기, 형상 중 적어도 하나를 결정할 수 있다. 즉, 영상 처리 모듈(230)은 레이어의 개수, 위치, 크기, 형상 등을 결정할 수 있다.Referring to FIG. 4, the display module 240 receives a user's sensing image type selection request (e.g., a touch input signal) through a menu icon, and correspondingly generates a plurality of sensing image types (i.e., (For example, a tachometer, a digital meter, and the like) of the sensing values to be displayed. Thereafter, the display module 240 may receive a user selection signal (e.g., a drag and drop touch input signal), and the image processing module 230 may display a display The position, size, and shape of the region can be determined. That is, the image processing module 230 can determine the number, position, size, shape, and the like of the layers.

다시 도 3을 참조하면, 영상 처리 모듈(230)(또는, 실시간 인코딩 장치(110))는 제1 레이어에 제1 영상 데이터(또는, 제1 영상 데이터에 대응하는 배경 영상(IMAGE))을 배치하고, 제2 내지 제4 레이어들(즉, 제1 레이어 상에 오버레이 되는 레이어들)에 전력 데이터(즉, 전압 값 및 전류 값에 기초하여 산출된 전력 값으로, 시간 경과에 따른 변화를 나타내는 그래프(IMAGE2)), 전압/전류 데이터(또는, 전류/전압 영상(IMAGE3)) 및 압력 데이터(또는, 압력 영상(IMAGE4))을 배치할 수 있다. 이 경우, 표시 모듈(240)의 제1 영역(R1)(또는, 표시 모듈(240)의 모든 표시 영역)에는 배경 영상(IMAGE1)이 표시되며. 표시 모듈(240)의 제2 영역(R2)에는 그래프 형태의 전력 영상(IMAGE2)이 표시되고, 표시 모듈(240)의 제3 영역(R3)에는 전류/전압 영상(IMAGE3)이 표시되며, 제4 영역(R4)에는 압력 영상이 표시될 수 있다.Referring again to FIG. 3, the image processing module 230 (or the real-time encoding device 110) arranges the first image data (or the background image IMAGE corresponding to the first image data) in the first layer (I.e., a graph representing a change over time with a power value calculated on the basis of the voltage value and the current value) to the second to fourth layers (i.e., the layers overlaid on the first layer) (IMAGE2), voltage / current data (or current / voltage image IMAGE3), and pressure data (or pressure image IMAGE4). In this case, the background image IMAGE1 is displayed in the first area R1 of the display module 240 (or all display areas of the display module 240). A graphical power image IMAGE2 is displayed in the second area R2 of the display module 240 and a current / voltage image IMAGE3 is displayed in the third area R3 of the display module 240, A pressure image can be displayed in the fourth region R4.

한편, 도 3에서, 3개의 센싱 영상들(IMAGE2 내지 IMAGE4)이 도시되어 있으나, 이는 예시적인 것으로, 본 발명이 이에 국한되는 것은 아니다. 예를 들어, 실시간 인코딩 장치(110)는 1개, 2개 또는 4개 이상의 센싱 영상들을 표시할 수 있다.3, three sensing images IMAGE2 to IMAGE4 are shown, but this is merely exemplary and the present invention is not limited thereto. For example, the real-time encoding device 110 may display one, two, or four or more sensing images.

다시 도 2를 참조하면, 코덱 모듈(250)은 영상 처리 모듈(230)에서 생성된 영상 데이터를 인코딩하여 부호화 데이터를 생성할 수 있다. 앞서 설명한 바와 같이, 코덱 모듈(250)은 범용 코덱(MPEG-4/AAC, H.264 등)을 이용하여 영상 데이터를 인코딩 할 수 있다. 또한, 코덱 모듈(250)은 마이크 모듈(270)에서 제공되는 음성 데이터를 인코딩 할 수 있다. 즉, 코덱 모듈(250)은 영상 데이터 및 음성 데이터를 인코딩하여 비디오 데이터를 생성할 수 있다.Referring again to FIG. 2, the codec module 250 may encode the image data generated by the image processing module 230 to generate encoded data. As described above, the codec module 250 can encode video data using a general-purpose codec (MPEG-4 / AAC, H.264, etc.). In addition, the codec module 250 may encode the voice data provided by the microphone module 270. That is, the codec module 250 may encode video data and audio data to generate video data.

통신 모듈(260)은 부호화 데이터(또는, 비디오 데이터)를 원격지 단말(130)에 전송할 수 있다. 또한, 통신 모듈(260)은 원격지 단말(130)(또는, 외부 장치)로부터 데이터(예를 들어, 비디오 데이터 등)을 수신할 수 있다.The communication module 260 can transmit the encoded data (or video data) to the remote terminal 130. The communication module 260 can also receive data (e.g., video data, etc.) from the remote terminal 130 (or an external device).

일 실시예에서, 통신 모듈(260)(또는, 코덱 모듈(250))은 FFMPEG(fast forward MPEG)와 같은 프로그램을 이용하여 부호화 데이터를 디지털 음성 스트림과 영상 스트림으로 변환할 수 있다. 이 경우, 통신 모듈(260)은 실시간 스트리밍 기술을 이용하여 원격지 단말(130)에 부호화 데이터를 제공할 수 있다.In one embodiment, the communication module 260 (or the codec module 250) may convert the encoded data into a digital voice stream and a video stream using a program such as FFMPEG (fast forward MPEG). In this case, the communication module 260 can provide the encoded data to the remote terminal 130 using the real-time streaming technology.

도 4는 도 2의 실시간 인코딩 장치에 포함된 영상 처리 모듈의 일 예를 나타내는 블록도이다. 도 5는 도 4의 영상 처리 모듈에서 센서 데이터를 시각화하는 일 예를 나타내는 도면이다.4 is a block diagram illustrating an example of an image processing module included in the real-time encoding apparatus of FIG. 5 is a diagram showing an example of visualizing sensor data in the image processing module of FIG.

도 4를 참조하면, 영상 처리 모듈(230)은 센싱 데이터 선택부(410), 시각화부(420), 영상 합성부(430) 및 텍스트화부(440)를 포함할 수 있다.4, the image processing module 230 may include a sensing data selector 410, a visualizer 420, an image synthesizer 430, and a textizer 440.

센싱 데이터 선택부(410)는 센싱 데이터로부터 시각화 및 텍스트화(textualization) 할 서브 센싱 데이터를 선택할 수 있다. 예를 들어, 센싱 데이터가 압력, 전압/전류, 전력 등에 대한 서브 센싱 데이터들을 포함하는 경우, 센싱 데이터 선택부(410)는 최초 설정값, 선택 신호(예를 들어, 사용자로부터 제공된 터치 입력 신호) 등에 기초하여 시각화할 서브 센싱 데이터와 텍스트화할 서브 센싱 데이터를 각각 선택할 수 있다.The sensing data selection unit 410 can select the sub sensing data to be visualized and textualized from the sensed data. For example, when the sensing data includes sub-sensing data for pressure, voltage / current, power, etc., the sensing data selector 410 may select a sensing value, a selection signal (for example, The sub-sensing data to be visualized and the sub-sensing data to be text can be selected, respectively.

도 3a를 참조하여 예를 들면, 센싱 데이터 선택부(410)는 전력 데이터 및 압력 데이터를 시각화 대상으로 결정하고, 전력 데이터 및 압력 데이터를 시각화부(420)에 제공하며, 센싱 데이터 선택부(410)는 전압/전류 데이터를 텍스트화 대상으로 결정하고, 전압/전류 데이터를 텍스트화부(440)에 제공할 수 있다.3A, for example, the sensing data selection unit 410 determines power data and pressure data to be visualized, provides the power data and pressure data to the visualization unit 420, and the sensing data selection unit 410 ) Can determine the voltage / current data as a text to be written, and provide the voltage / current data to the textizer 440.

시각화부(420)는 서브 센싱 데이터(즉, 센싱 데이터 선택부(410)에서 시각화 대상으로 선택된 센싱 데이터)에 기초하여 제2 영상 데이터를 생성할 수 있다.The visualization unit 420 can generate the second image data based on the sub-sensing data (i.e., the sensing data selected as the visualization target in the sensing data selection unit 410).

도 5를 참조하면, 시각화부(420)는 서브 센싱 데이터를 시간 경과에 따른 센싱값의 크기 변화를 나타내는 그래프로 나타낼 수 있다. 예를 들어, 시각화부(420)는 버퍼 또는 메모리 장치를 이용하여 특정 시간 동안의 센싱 값들을 저장하고, 센싱값들 각각의 제공 시점 및 센싱값들 각각의 크기에 기초하여 그래프를 생성할 수 있다. 예를 들어, 시각화부(420)는 5초 동안의 센싱값들을 저장할 수 있는 버퍼를 포함하고, FIFO(first input first output) 방식을 이용하여 센싱값들을 저장하며, 저장된 센싱값들을 그래프 변환 알고리즘에 적용하여 그래프를 도출할 수 있다.Referring to FIG. 5, the visualization unit 420 may display the sub-sensing data as a graph indicating a change in size of a sensing value over time. For example, the visualization unit 420 may store a sensing value for a specific time using a buffer or a memory device, and generate a graph based on the size of each of the sensing points and the providing time of each of the sensing values . For example, the visualization unit 420 includes a buffer capable of storing sensing values for 5 seconds, stores sensed values using a FIFO (first input first output) method, and stores the sensed values into a graph transformation algorithm The graph can be derived by applying it.

이와 달리, 시각화부(420)는 서브 센싱 데이터를 타코미터와 같은 영상 데이터로 나타낼 수 있다. 도 3a를 참조하여 예를 들어, 시각화부(420)는 센싱값에 기초하여 지침(또는, 바늘, 인디케이터) 영상을 생성하고, 지침 영상을 압력 영상(IMAGE4)와 같은 타코미터의 형상을 가지는 외형 영상에 오버레이할 수 있다.Alternatively, the visualization unit 420 may display the sub-sensing data as image data such as a tachometer. 3A, for example, the visualization unit 420 generates a guidance (or needle, indicator) image based on the sensed value, and outputs the guidance image as an external shape image having a shape of a tachometer such as a pressure image IMAGE4 Lt; / RTI >

즉, 시각화부(420)는 센싱 데이터를 시각화하는 일반적인 기술(또는 알고리즘)을 이용하여 센싱 데이터를 다양한 형태로 시각화 할 수 있다.That is, the visualization unit 420 may visualize the sensing data in various forms using a general technique (or algorithm) for visualizing the sensing data.

한편, 시각화부(420)는 제1 영상 데이터(즉, 배경 영상 데이터)의 주기와 같은 주기를 가지고 제2 영상 데이터를 생성할 수 있다. 예를 들어, 카메라 모듈(120)에서 60 프레임(또는, 60 Hz)의 제1 영상 데이터를 생성하는 경우, 시각화부(420)는 60 프레임의 제2 영상 데이터를 생성할 수 있다.Meanwhile, the visualization unit 420 may generate the second image data with a period equal to the period of the first image data (i.e., the background image data). For example, when generating the first image data of 60 frames (or 60 Hz) in the camera module 120, the visualization unit 420 may generate the second image data of 60 frames.

영상 합성부(430)는 제1 영상 데이터(즉, 배경 영상에 대한 데이터) 및 제2 영상 데이터(즉, 시각화된 센싱 데이터)를 병합하여 영상 데이터를 생성할 수 있다. 예를 들어, 영상 합성부(430)는 OpneGL ES framework(즉, 임베디드 환경에서 3차원 그래픽을 처리하기 위한 프레임워크)를 이용하여 시각화 계층(즉, 시각화된 센싱 데이터를 포함하는 복수의 레이어들) 및 제1 영상 데이터를 합성할 수 있다.The image combining unit 430 may generate image data by merging the first image data (i.e., data for the background image) and the second image data (i.e., the visualized sensing data). For example, the image synthesizer 430 may include a visualization layer (i.e., a plurality of layers including the visualized sensed data) using the OpneGL ES framework (i.e., a framework for processing 3D graphics in an embedded environment) And the first image data.

한편, 영상 합성부(430)에서 생성된 영상 데이터는 코덱 모듈(250)에 제공될 수 있다.Meanwhile, the image data generated by the image combining unit 430 may be provided to the codec module 250.

텍스트화부(440)는 서브 센싱 데이터(즉, 센싱 데이터 선택부(410)에서 텍스트화 대상으로 선택된 센싱 데이터)에 기초하여 텍스트 데이터(또는, 문자 데이터)를 생성할 수 있다. The text creator 440 can generate text data (or character data) based on the sub-sensing data (i.e., the sensing data selected by the sensing data selector 410 as text data).

도 3a를 참조하여 예를 들어, 텍스트화부(440)는 센싱값의 종류 또는 센싱 데이터의 식별 부호에 기초하여 기초 문자 부분(예를 들어, 센싱값의 종류를 나타내는 Voltage, Current 및 이들의 단위를 나타내는 V, A)를 결정하고, 센싱 값(즉, 디지털 형태의 센싱 값)에 대응하는 변화 문자 부분(예를 들어, 센싱 값인 30.99, 3.000)을 결정할 수 있다. 텍스트화부(440)는 특정 주기(예를 들어, 영상 데이터의 주기인 60 프레임과 같거나 작은 주기)를 가지고 자막을 반복적으로 생성할 수 있다.Referring to FIG. 3A, for example, the text converting unit 440 converts a basic character portion (for example, Voltage, Current representing the type of sensing value, and their units A), and determine a change character portion (e.g., 30.99, 3.000, which is the sensing value) corresponding to the sensing value (i.e., the sensing value in digital form). The text creator 440 can repeatedly generate subtitles with a specific period (for example, a period equal to or shorter than 60 frames, which is the period of video data).

일 실시예에서, 텍스트화부(440)는 센싱값의 변화가 임계값(또는, 기준값)을 초과하는 경우, 자막을 생성할 수 있다. 예를 들어, 텍스트화부(440)는 전압의 단위를 소수점 이상으로 결정하고, 전압이 소수점 이상(즉, 1V 이상)으로 변화하는 경우에 한하여, 전압에 대한 자막을 생성할 수 있다. 예를 들어, 텍스트화부(440)는 전류가 0.1A 이상으로 변화하는 경우, 전류에 대한 자막을 생성할 수 있다.In one embodiment, the textizer 440 may generate a subtitle if the change in the sensed value exceeds a threshold (or a reference value). For example, the text generating unit 440 may determine a unit of voltage to be a decimal point or more and generate a subtitle for a voltage only when the voltage changes to a decimal point or more (that is, 1V or more). For example, the textizer 440 can generate a subtitle for a current when the current changes by 0.1 A or more.

참고로, 실시간 인코딩 장치(110)는 부호화 데이터(즉, 배경 영상 및 센싱 데이터를 포함하는 데이터)를 하나의 미디어 파일로서 원격지 단말(130)에 제공할 수 있다. 이 경우, 실시간 인코딩 장치(110)는 자막 데이터를 미디어 파일과 동일한 파일명을 가지는 자막 파일로 생성하여 원격지 단말(130)에 제공할 수 있다.For reference, the real-time encoding device 110 may provide the remote terminal 130 with the encoded data (i.e., the data including the background image and the sensing data) as one media file. In this case, the real-time encoding device 110 may generate the caption data as a caption file having the same file name as the media file, and provide the generated caption file to the remote terminal 130.

이와 달리, 실시간 인코딩 장치(110)는 부호화 데이터를 실시간 스트리밍 기술을 이용하여 원격지 단말(130)에 제공할 수 있다. 이 경우, 실시간 인코딩 장치(110)는 자막 데이터를 주기적으로 갱신하고, 갱신된 자막 데이터를 원격지 단말(130)에 주기적으로 제공할 수 있다. 원격지 단말(130)은 실시간으로 영상을 표시하되, 갱신된 자막 데이터에 포함된 자막(즉, 센싱값)을 호출하여 영상에 표시할 수 있다.Alternatively, the real-time encoding device 110 may provide the encoded data to the remote terminal 130 using a real-time streaming technique. In this case, the real-time encoding device 110 may periodically update the caption data and periodically provide the updated caption data to the remote terminal 130. [ The remote terminal 130 displays an image in real time, and can call the caption (i.e., sensing value) included in the updated caption data and display it on the image.

이와 달리, 실시간 인코딩 장치(110)는 영상 통화 기술을 이용하여 부호화 데이터를 원격지 단말(130)에 제공할 수 있다. 이 경우, 실시간 인코딩 장치(110)는 자막 데이터를 이용하여 문자 메시지를 생성할 수 있고, 원격지 단말(130)과의 영상 통화 중, 푸쉬 알림 기능을 이용하여 원격지 단말(130)로 하여금 문자 메시지(즉, 센싱값)을 표시하도록 할 수 있다. 따라서, 원격지 단말(130)을 이용하는 사용자는 배경 영상 뿐만 아니라 센싱 데이터를 실시간으로 인지할 수 있다.Alternatively, the real-time encoding device 110 may provide the encoded data to the remote terminal 130 using the video call technology. In this case, the real-time encoding device 110 can generate a text message using the caption data. In the video communication with the remote terminal 130, the remote terminal 130 can transmit a text message That is, a sensing value). Accordingly, the user using the remote terminal 130 can recognize not only the background image but also the sensing data in real time.

참고로, 실시간 인코딩 장치(110)에서 센싱 데이터를 모두 시각화하는 경우, 상대적으로 작은 크기의 센싱 데이터가 상대적으로 큰 (즉, 용량이 큰) 영상 데이터로 변환되므로, 실시간 인코딩 장치(110)에서 원격지 단말(130)에 제공되는 데이터의 크기가 증가하며, 실시간 인코딩 장치(110), 네트워크(120), 원격지 단말(130) 모두의 부하가 증가될 수 있다.In the case where all the sensing data is visualized in the real-time encoding device 110, since the relatively small-sized sensing data is converted into relatively large (i.e., large-capacity) image data, The size of data provided to the terminal 130 increases and the load of both the real-time encoding device 110, the network 120, and the remote terminal 130 can be increased.

한편, 실시간 인코딩 장치(110)에서 센싱 데이터의 적어도 일부를 자막 데이터(또는, 문자 메시지)를 이용하여 문자 형태로 시각화 하는 경우, 센싱 데이터는 영상 데이터에 비해 상대적으로 작은 크기(또는, 센싱 데이터와 유사한 크기)를 가지는 자막 데이터(또는, 문자 데이터)로 변환되므로, 실시간 인코딩 장치(110)에서 원격지 단말(130)에 제공되는 데이터의 크기가 증가를 최소화시킬 수 있다.Meanwhile, when at least a part of the sensing data is visualized in a character form using the caption data (or a text message) in the real-time encoding device 110, the sensing data is relatively small in size (Or character data) having the same size), it is possible to minimize the increase in the size of data provided to the remote terminal 130 in the real-time encoding apparatus 110. [

도 6은 도 2의 실시간 인코딩 장치를 알고리즘으로 구현한 일 예를 나타내는 블록도이다.FIG. 6 is a block diagram illustrating an example of real-time encoding apparatus of FIG. 2 implemented as an algorithm.

도 2 및 도 7을 참조하면, 실시간 인코딩 장치(110)는 센서 데이터 통합부(sensor DAQ)(610), 게이지 드로워(gaugedrawer)(620), 게이지뷰어(gauge viewer)(630), 서피스텍스처(surfacetexture)(640), 오픈지엘(openGL ES)(650), 서피스뷰어(surfaceview)(660), 미디어코덱(mediacodec)(670) 및 에프에프엠피이지(FFMPEG)(680)을 포함할 수 있다.2 and 7, the real-time encoding apparatus 110 includes a sensor data integration unit (sensor DAQ) 610, a gauge droper 620, a gauge viewer 630, a surfacetexture 640, an openGL ES 650, a surfaceview 660, a media codec 670, and an FFMPEG 680 .

센서 데이터 통합부(sensor DAQ)(610)는 센서(120)로부터 센서값(또는, 센서 데이터)를 획득하고, 복수의 센서들을 구별하기 위해 센서들에 식별번호(또는, ID)를 부여할 수 있다. 앞서 도 2를 참조하여 설명한 센서 모듈(210)과 실질적으로 동일할 수 있다.The sensor data integration unit 610 may acquire sensor values (or sensor data) from the sensors 120 and may assign identification numbers (or IDs) to the sensors to distinguish the plurality of sensors have. May be substantially the same as the sensor module 210 described above with reference to FIG.

게이지 드로워(gaugedrawer)(620)는 센서 값을 다양한 형태로 시각화 할 수 있다. 도 4를 참조하여 설명한 시각화부(420)와 실질적으로 동일할 수 있다.A gauge droper 620 can visualize sensor values in various forms. And may be substantially the same as the visualization unit 420 described with reference to FIG.

게이지뷰어(gauge viewer)(630)는 센서 시각화 계층을 제어할 수 있다. 여기서, 센서 시각화 계층은 시각화된 센서값들을 표시하는 레이어에 해당할 수 있다. 앞서 도 3b를 참조하여 설명한 바와 같이, 게이지뷰어(gauge viewer)(630)는 사용자로부터 제공되는 선택 신호 등에 기초하여 센서 시각화 계층을 생성, 이동 및 삭제할 수 있다.A gauge viewer 630 may control the sensor visualization layer. Here, the sensor visualization layer may correspond to a layer that displays visualized sensor values. As described above with reference to FIG. 3B, the gauge viewer 630 can create, move, and delete the sensor visualization layer based on a selection signal provided from the user.

서피스텍스처(surfacetexture)(640)는 카메라 모듈(220)로부터 제1 영상 데이터(또는, 영상 프레임 데이터)를 획득할 수 있다.The surfacetexture 640 may obtain first image data (or image frame data) from the camera module 220.

오픈지엘(openGL ES)(650)은 임베디드 환경에서 3차원 그래픽을 처리하기 위한 프레임워크이고, 화면 렌더링 및 코덱 변환을 위해 제1 영상 데이터 및 제2 영상 데이터를 FFMPEG(680)에 전송하는 이지엘서피스(EGLSurface)를 포함할 수 있다.OpenGL ES 650 is a framework for processing three-dimensional graphics in an embedded environment and is a framework for rendering first graphics data and second graphics data to FFMPEG 680 for screen rendering and codec conversion, Surface (EGLSurface) can be included.

서피스뷰어(surfaceview)(660)는 OpenGL ES framework를 통해 시각화 계층(즉, 시각화된 센싱 데이터)과 카메라 영상 프레임(즉, 제1 영상 데이터)를 혼합하여 표시 모듈(240) 상에 출력할 수 있다.The surface viewer 660 may mix the visualization layer (i.e., the visualized sensing data) and the camera image frame (i.e., the first image data) via the OpenGL ES framework and output it on the display module 240 .

미디어코덱(mediacodec)(670)은 모바일 환경에서 재생할 수 있는 코덱을 이용하여 영상 데이터(즉, 제1 및 제2 영상 데이터들을 포함하는 데이터)를 인코딩할 수 있다. 미디어코덱(670)은 도 2를 참조하여 설명한 코덱 모듈(250)과 실질적으로 동일할 수 있다.The media codec 670 may encode video data (i.e., data including the first and second video data) using a codec that can be reproduced in a mobile environment. The media codec 670 may be substantially the same as the codec module 250 described with reference to FIG.

FFMPEG(680)은 크로스 플랫폼을 지원하는 미디어 프레임워크로, 다양한 코덱, 영상 재생, 편집 기능 등을 제공할 수 있다. FFMPEG(680)은 미디어코덱(670)에서 인코딩된 비디오 데이터(즉, 영상 데이터 및 음성 데이터를 포함하는 데이터)를 비디오 스트림으로 저장하고, 파일 출력(예를 들어, mp4-latm) 또는 스트리밍 출력(예를 들어, rtsp) 방식을 이용할 수 있다. FFMPEG (680) is a cross-platform supporting media framework that can provide various codecs, image playback, and editing functions. The FFMPEG 680 stores video data encoded in the media codec 670 (i.e., data including video data and audio data) as a video stream, and outputs a file output (e.g., mp4-latm) or a streaming output For example, the rtsp method can be used.

도 7은 본 발명의 실시예들에 따른 실시간 인코딩 방법을 나타내는 순서도이다.7 is a flowchart illustrating a real-time encoding method according to embodiments of the present invention.

도 2 및 도 7을 참조하면, 도 7의 방법은 도 2의 실시간 인코딩 장치(110)에서 수행될 수 있다.Referring to Figures 2 and 7, the method of Figure 7 may be performed in the real-time encoding device 110 of Figure 2.

도 7의 방법은 센서(120)로부터 제공되는 센싱 데이터를 시각화하여 제2 영상 데이터를 생성할 수 있다(S710).7 may generate the second image data by visualizing the sensing data provided from the sensor 120 (S710).

앞서 도 5를 참조하여 설명한 바와 같이, 도 7의 방법은 시각화부(420)를 이용하여 센싱 데이터를 시간에 따른 센싱값 변화를 나타내는 그래프 영상, 타코미터 영상 등으로 변환할 수 있다.As described above with reference to FIG. 5, the method of FIG. 7 may convert the sensed data into a graph image, a tachometer image, or the like that represents a sensing value change over time using the visualization unit 420.

일 실시예에서, 도 7의 방법은 센서(120)로부터 제공되는 센싱 데이터 중 적어도 일부를 텍스트화하여 자막 데이터를 생성할 수 있다.In one embodiment, the method of FIG. 7 may generate caption data by textizing at least a portion of the sensing data provided from the sensor 120.

앞서 도 5를 참조하여 설명한 바와 같이, 도 7의 방법은 센싱 데이터로부터 텍스트화하고자 하는 서브 센싱 데이터를 선택하고, 센싱 값(디지털 센싱 값)을 문자 형태로 변환하여 특정 시점의 자막을 생성할 수 있다. As described above with reference to FIG. 5, the method of FIG. 7 selects sub-sensing data to be converted into text data from sensing data and converts a sensing value (digital sensing value) into a character form to generate a subtitle at a specific point in time have.

앞서 설명한 바와 같이, 도 7의 방법이 실시간 스트리밍 기술을 이용하여 부호화 데이터를 원격지 단말(130)에 제공하는 경우, 도 7의 방법은 자막 데이터를 주기적으로 갱신 및 전송하고, 원격지 단말(130)은 실시간으로 영상을 표시하되, 갱신된 자막 데이터에 포함된 자막(즉, 센싱값)을 호출하여 영상에 표시할 수 있다. 또한, 도 7의 방법이 영상 통화 기술을 이용하여 부호화 데이터를 원격지 단말(130)에 제공하는 경우, 도 7의 방법은 자막 데이터를 이용하여 문자 메시지를 생성하고, 원격지 단말(130)과의 영상 통화 중, 푸쉬 알림 기능을 이용하여 원격지 단말(130)로 하여금 문자 메시지(즉, 센싱값)을 표시하도록 할 수 있다.As described above, when the method of FIG. 7 provides the encoded data to the remote terminal 130 using the real-time streaming technique, the method of FIG. 7 periodically updates and transmits the caption data, and the remote terminal 130 The caption (i.e., the sensing value) included in the updated caption data can be called up and displayed on the video. 7, when the method of FIG. 7 provides the encoded data to the remote terminal 130 using the video communication technology, the method of FIG. 7 generates a text message using the caption data, During the communication, the remote terminal 130 can display a text message (i.e., a sensing value) by using the push notification function.

도 7의 방법은 카메라 모듈(220)에서 제공되는 제1 영상 데이터를 제2 영상 데이터와 병합하여 출력 영상 데이터를 생성할 수 있다(S720). 앞서 설명한 바와 같이, 도 7의 방법은 OpneGL ES framework(즉, 임베디드 환경에서 3차원 그래픽을 처리하기 위한 프레임워크)를 이용하여 시각화 계층(즉, 시각화된 센싱 데이터를 포함하는 복수의 레이어들) 및 제1 영상 데이터를 합성할 수 있다. 7, the first image data provided by the camera module 220 may be merged with the second image data to generate output image data (S720). As described above, the method of FIG. 7 uses a visualization layer (i.e., a plurality of layers including visualized sensed data) and an OpneGL ES framework (i.e., a framework for processing 3D graphics in an embedded environment) The first image data can be synthesized.

도 7의 방법은 출력 영상 데이터를 인코딩하여 부호화 데이터를 생성하고(S730), 부호화 데이터를 원격지 단말(130)에 전송할 수 있다(S740).The method of FIG. 7 generates encoded data by encoding the output image data (S730), and may transmit the encoded data to the remote terminal 130 (S740).

앞서 설명한 바와 같이, 도 7의 방법은 범용 코덱(MPEG-4/AAC, H.264 등)을 이용하여 비디오 데이터(즉, 영상 데이터, 음성 데이터, 자막 데이터 등)를 인코딩 할 수 있다. 또한, 도 7의 방법은, FFMPEG(fast forward MPEG)와 같은 프로그램을 이용하여 부호화 데이터를 디지털 음성 스트림과 영상 스트림으로 변환하고, 실시간 스트리밍 기술을 이용하여 원격지 단말(130)에 부호화 데이터를 제공할 수 있다.As described above, the method of FIG. 7 can encode video data (i.e., video data, audio data, caption data, etc.) using a general-purpose codec (MPEG-4 / AAC, H.264, etc.). 7, the encoded data is converted into a digital voice stream and a video stream by using a program such as FFMPEG (fast forward MPEG), and the encoded data is provided to the remote terminal 130 using the real-time streaming technology .

상술한 바와 같이, 본 발명의 실시예들에 따른 실시간 인코딩 방법은 센싱 데이터를 시각화하여 제2 영상 데이터를 생성하고, 제1 영상 데이터 및 제2 영상 데이터를 병합/코딩하여 부호화 데이터를 생성/전송함으로써, 부호화 데이터를 수신하는 원격지 단말(130)은 별도의 어플리케이션을 구비하지 않더라도 센싱 데이터(예를 들어, 센싱 값)을 표시할 수 있다.As described above, in the real-time encoding method according to the embodiments of the present invention, the second image data is generated by visualizing the sensing data, and the first image data and the second image data are merged / The remote terminal 130 receiving the encoded data can display the sensing data (for example, the sensing value) even without the separate application.

특히, 도 7의 방법은 제1 영상 데이터에 시각화된 센싱 데이터(또는, 제2 영상 데이터, 자막 데이터)를 실시간으로 병합하고, 범용 코덱을 이용하여 병합된 데이터를 인코딩함으로써 실시간 스트리밍을 가능하도록 할 수 있다. 따라서, 임의의 원격지 단말(130)은 일반적인 어플리케이션(예를 들어, 일반적인 미디어 플레이어, 영상 통화 어플리케이션 등)만을 이용하여, 배경 영상 및 센싱 값들을 실시간으로 획득/표시할 수 있다.In particular, the method of FIG. 7 realizes streaming by merging sensed data visualized in the first image data (or second image data, caption data) in real time, and encoding the merged data using the universal codec . Accordingly, the arbitrary remote terminal 130 can acquire / display background images and sensing values in real time using only general applications (for example, a general media player, a video call application, etc.).

본 발명의 실시예들에 따른 실시간 인코딩 장치 및 실시간 인코딩 방법은 비디오 데이터의 인코딩 장치 및 실시간 모니터링 시스템에 적용될 수 있다.The real-time encoding apparatus and the real-time encoding method according to embodiments of the present invention can be applied to a video data encoding apparatus and a real-time monitoring system.

100: 모바일 현장 모니터링 시스템
110: 실시간 인코딩 장치 120: 센서
130: 원격지 단말 210: 센서 모듈
220: 카메라 모듈 230: 영상 처리 모듈
240: 표시 모듈 250: 코덱 모듈
260: 통신 모듈 270: 마이크 모듈
410: 센싱 데이터 선택부 420: 시각화부
430: 영상 합성부 440: 텍스트화부
100: Mobile field monitoring system
110: Real-time encoding device 120: Sensor
130: Remote terminal 210: Sensor module
220: camera module 230: image processing module
240: Display module 250: Codec module
260: communication module 270: microphone module
410: Sensing data selection unit 420: Visualization unit
430: image synthesizing unit 440:

Claims (7)

제1 영상 데이터를 생성하는 카메라 모듈;
외부 센서로부터 센싱 데이터를 수신하는 센싱 모듈;
상기 센싱 데이터를 시각화하여 제2 영상 데이터를 생성하고, 상기 제1 영상 데이터 및 상기 제2 영상 데이터를 병합하여 출력 영상 데이터를 생성하는 영상 처리 모듈;
상기 출력 영상 데이터에 기초하여 영상을 표시하는 표시 모듈;
상기 출력 영상 데이터를 인코딩하여 부호화 데이터를 생성하는 코덱 모듈; 및
상기 부호화 데이터를 외부 장치에 전송하는 전송 모듈을 포함하고,
상기 센싱 데이터는 온도, 압력, 레벨, 전압 및 전류 각각에 대한 서브 센싱 데이터들을 포함하며,
상기 영상 처리 모듈은,
상기 서브 센싱 데이터들 중 제1 서브 센싱 데이터 및 제2 서브 센싱 데이터를 각각 선택하는 센싱 데이터 선택부;
상기 제1 서브 센싱 데이터에 기초하여 상기 제2 영상 데이터를 생성하는 시각화부;
상기 제1 영상 데이터 및 상기 제2 영상 데이터를 병합하여 상기 출력 영상 데이터를 생성하는 영상 합성부; 및
상기 제2 서브 센싱 데이터에 포함된 센싱 값을 주기적으로 추출하고, 상기 센싱 값을 추출한 시점 및 상기 센싱 값에 기초하여 자막 데이터를 생성하되, 상기 출력 영상 데이터에 포함된 프레임에 대응하는 주기를 가지고 상기 자막 데이터를 갱신하는 덱스트화부를 포함하고,
상기 전송 모듈은 상기 부호화 데이터에 독립적으로 상기 자막 데이터를 상기 외부 장치에 전송하며,
상기 제1 영상 데이터에 대응하는 배경 영상은 상기 표시 모듈의 표시 영역 중 제1 영역에 표시되고, 상기 제2 영상 데이터에 대응하는 센싱 영상은 상기 표시 영역 중 제2 영역에 표시되며, 상기 자막 데이터에 대응하는 자막은 상기 표시 영역 중 제3 영역에 표시되고,
상기 제1 영역, 상기 제2 영역 및 상기 제3 영역은 상호 중첩하지 않는 실시간 인코딩 장치.
A camera module for generating first image data;
A sensing module for receiving sensing data from an external sensor;
An image processing module for generating second image data by visualizing the sensing data, and merging the first image data and the second image data to generate output image data;
A display module for displaying an image based on the output image data;
A codec module for encoding the output image data to generate encoded data; And
And a transmission module for transmitting the encoded data to an external device,
The sensing data includes sub-sensing data for each of temperature, pressure, level, voltage and current,
The image processing module includes:
A sensing data selector for selecting the first sub sensing data and the second sub sensing data among the sub sensing data, respectively;
A visualization unit for generating the second image data based on the first sub-sensing data;
An image synthesizer for merging the first image data and the second image data to generate the output image data; And
The method of claim 1, further comprising: periodically extracting a sensing value included in the second sub-sensing data, generating caption data based on a time at which the sensing value is extracted and the sensed value, And a dextreater for updating the caption data,
Wherein the transmission module transmits the caption data to the external device independently of the encoded data,
A background image corresponding to the first image data is displayed in a first area of a display area of the display module, a sensing image corresponding to the second image data is displayed in a second area of the display area, Is displayed in the third area of the display area,
Wherein the first region, the second region, and the third region do not overlap with each other.
삭제delete 제 1 항에 있어서, 상기 전송 모듈은 상기 자막 데이터에 기초하여 문자 메시지를 생성하여 상기 외부 장치에 전송하는 실시간 인코딩 장치.The real-time encoding apparatus of claim 1, wherein the transmission module generates a text message based on the caption data and transmits the text message to the external device. 제 1 항에 있어서,
상기 센싱 데이터를 축적한 축적 데이터를 저장하는 메모리 장치를 더 포함하고,
상기 영상 처리 모듈은 상기 센싱 데이터가 생성된 시점을 포함하는 대상 구간에 대응하는 축적 데이터를 이용하여 상기 제2 영상 데이터를 생성하는 것을 특징으로 하는 실시간 인코딩 장치.
The method according to claim 1,
Further comprising a memory device for storing the accumulation data in which the sensing data is accumulated,
Wherein the image processing module generates the second image data using the accumulation data corresponding to the object section including the time at which the sensing data is generated.
삭제delete 삭제delete 카메라, 센서와 연동되는 실시간 인코딩 장치에서 수행되는 실시간 인코딩 방법에서,
상기 센서로부터 제공되는 센싱 데이터를 시각화하여 제2 영상 데이터를 생성하는 단계;
상기 카메라로부터 제공되는 제1 영상 데이터 및 상기 제2 영상 데이터를 병합하여 출력 영상 데이터를 생성하는 단계;
상기 출력 영상 데이터를 인코딩하여 부호화 데이터를 생성하는 단계; 및
상기 부호화 데이터를 외부 장치에 전송하는 단계를 포함하고,
상기 센싱 데이터는 온도, 압력, 레벨, 전압 및 전류 각각에 대한 서브 센싱 데이터들을 포함하며,
상기 출력 영상 데이터를 생성하는 단계는,
상기 서브 센싱 데이터들 중 제1 서브 센싱 데이터 및 제2 서브 센싱 데이터를 각각 선택하는 단계;
상기 제1 서브 센싱 데이터에 기초하여 상기 제2 영상 데이터를 생성하는 단계;
상기 제1 영상 데이터 및 상기 제2 영상 데이터를 병합하여 상기 출력 영상 데이터를 생성하는 단계; 및
상기 제2 서브 센싱 데이터에 포함된 센싱 값을 주기적으로 추출하고, 상기 센싱 값을 추출한 시점 및 상기 센싱 값에 기초하여 자막 데이터를 생성하되, 상기 출력 영상 데이터에 포함된 프레임에 대응하는 주기를 가지고 상기 자막 데이터를 갱신하는 단계를 포함하고,
상기 부호화 데이터를 상기 외부 장치에 전송하는 단계는, 상기 부호화 데이터에 독립적으로 상기 자막 데이터를 상기 외부 장치에 전송하는 단계를 포함하며,
상기 제1 영상 데이터에 대응하는 배경 영상은 표시 모듈의 표시 영역 중 제1 영역에 표시되고, 상기 제2 영상 데이터에 대응하는 센싱 영상은 상기 표시 영역 중 제2 영역에 표시되며, 상기 자막 데이터에 대응하는 자막은 상기 표시 영역 중 제3 영역에 표시되고,
상기 제1 영역, 상기 제2 영역 및 상기 제3 영역은 상호 중첩하지 않는 실시간 인코딩 방법.
In a real-time encoding method performed in a real-time encoding device interlocked with a camera and a sensor,
Generating second image data by visualizing sensed data provided from the sensor;
Generating output image data by merging first image data and second image data provided from the camera;
Encoding the output image data to generate encoded data; And
And transmitting the encoded data to an external device,
The sensing data includes sub-sensing data for each of temperature, pressure, level, voltage and current,
Wherein the step of generating the output image data comprises:
Selecting first sub sensing data and second sub sensing data among the sub sensing data, respectively;
Generating the second image data based on the first sub-sensing data;
Generating the output image data by merging the first image data and the second image data; And
The method of claim 1, further comprising: periodically extracting a sensing value included in the second sub-sensing data, generating caption data based on a time at which the sensing value is extracted and the sensed value, And updating the caption data,
Wherein the step of transmitting the encoded data to the external apparatus includes transmitting the caption data to the external apparatus independently of the encoded data,
The background image corresponding to the first image data is displayed in the first area of the display area of the display module and the sensing image corresponding to the second image data is displayed in the second area of the display area, The corresponding caption is displayed in the third area of the display area,
Wherein the first region, the second region, and the third region do not overlap with each other.
KR1020170003453A 2017-01-10 2017-01-10 Real-time incording device and real-time incording method KR101951874B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170003453A KR101951874B1 (en) 2017-01-10 2017-01-10 Real-time incording device and real-time incording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170003453A KR101951874B1 (en) 2017-01-10 2017-01-10 Real-time incording device and real-time incording method

Publications (2)

Publication Number Publication Date
KR20180082141A KR20180082141A (en) 2018-07-18
KR101951874B1 true KR101951874B1 (en) 2019-05-10

Family

ID=63049137

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170003453A KR101951874B1 (en) 2017-01-10 2017-01-10 Real-time incording device and real-time incording method

Country Status (1)

Country Link
KR (1) KR101951874B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032880A (en) * 2000-07-14 2002-01-31 Hitachi Service & Engineering (East) Ltd Remote maintenance system for equipment
JP2016086416A (en) 2014-10-27 2016-05-19 アクシス アーベー Monitoring method and device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0937230A (en) * 1995-07-21 1997-02-07 Mitsubishi Denki Eng Kk Image monitor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032880A (en) * 2000-07-14 2002-01-31 Hitachi Service & Engineering (East) Ltd Remote maintenance system for equipment
JP2016086416A (en) 2014-10-27 2016-05-19 アクシス アーベー Monitoring method and device

Also Published As

Publication number Publication date
KR20180082141A (en) 2018-07-18

Similar Documents

Publication Publication Date Title
US10643665B2 (en) Data processing systems
US10347298B2 (en) Method and apparatus for smart video rendering
KR101952260B1 (en) Video display terminal and method for displaying a plurality of video thumbnail simultaneously
KR20120001765A (en) Thumbnail generation device and method of generating thumbnail
CN103162706A (en) Apparatus and method for content display in a mobile terminal
JP6057562B2 (en) Information processing apparatus and control method thereof
JPWO2017169369A1 (en) Information processing apparatus, information processing method, and program
KR101891967B1 (en) Site monitoring system using mobile device
JP5966834B2 (en) Image processing apparatus, image processing method, and image processing program
CN105678827A (en) Method and apparatus for generating automatic animations
JP2013210989A (en) Image processing device, image processing method, and image processing program
JP2013210990A (en) Image processor, image processing method and image processing program
US20190138085A1 (en) Provision of Virtual Reality Content
WO2013129188A1 (en) Image processing device, image processing method, and image processing program
KR101951874B1 (en) Real-time incording device and real-time incording method
KR101762349B1 (en) Method for providing augmented reality in outdoor environment, augmented reality providing server performing the same, and storage medium storing the same
US9503607B2 (en) Image capture apparatus and method of controlling the same
JP2008250621A (en) Gui display system, recording device and gui display method
JP5920152B2 (en) Image processing apparatus, image processing method, and image processing program
CN101640781A (en) Motion Picture Reproduction Apparatus
JP5910446B2 (en) Image processing apparatus, image processing method, and image processing program
JP5983259B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013211821A (en) Image processing device, image processing method, and image processing program
KR20200053498A (en) Method and apparatus for adaptation of motion vector predictor for omni-directional video
JP2013134610A (en) Information processing device, and method and program for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant