KR20170045102A - Media things based on media centric internet of things and method of operating the same - Google Patents

Media things based on media centric internet of things and method of operating the same Download PDF

Info

Publication number
KR20170045102A
KR20170045102A KR1020160103675A KR20160103675A KR20170045102A KR 20170045102 A KR20170045102 A KR 20170045102A KR 1020160103675 A KR1020160103675 A KR 1020160103675A KR 20160103675 A KR20160103675 A KR 20160103675A KR 20170045102 A KR20170045102 A KR 20170045102A
Authority
KR
South Korea
Prior art keywords
media object
media
processing module
message
metadata
Prior art date
Application number
KR1020160103675A
Other languages
Korean (ko)
Inventor
김상균
Original Assignee
명지대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 명지대학교 산학협력단 filed Critical 명지대학교 산학협력단
Priority to PCT/KR2016/011106 priority Critical patent/WO2017065443A1/en
Publication of KR20170045102A publication Critical patent/KR20170045102A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/2253
    • H04N5/2257

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Disclosed are a media things based on media centric internet of things and an operation method thereof. The media things include a command processing module for generating a control command or a message according to a task assigned by a user, and a communication processing module for transmitting at least one of the control command and the message to other media things. The communication processing module performs communication with the other media thing according to the assigned task without being controlled by the user.

Description

미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법{MEDIA THINGS BASED ON MEDIA CENTRIC INTERNET OF THINGS AND METHOD OF OPERATING THE SAME}FIELD OF THE INVENTION [0001] The present invention relates to media objects, and more particularly,

본 발명은 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a media object based on the media center object and an operation method thereof.

근래 사물 인터넷(Internet of Things)을 이용한 제품, 시스템 및 서비스에 대한 산업계나 학계의 관심이 높다.Recently, the industry and academia are interested in products, systems and services using the Internet of Things.

따라서, 사물간 연결을 통한 가치 있는 서비스 제공을 위해서는 사물 간의 네트워크, 사물(예: 센서, 구동기), 사용자와 사물, 사물과 사물 간 주고 받는 데이터(예: 센서 데이터, 제어 명령) 등의 전체를 아우를 수 있는 표준의 필요성이 높아지고 있다.Therefore, in order to provide valuable service through inter-object linkage, it is necessary to use the entire network, objects (eg sensors, actuators), users and objects, data exchanged between objects and objects (eg sensor data, control commands) There is a growing need for standards that can be adopted.

현재 ISO, ITU, IEEE, IETF, oneM2M, OMA와 같은 공적/사적 국제 기구를 중심으로 사물 인터넷의 표준화를 진행하고 있으나, 대부분 사물과 사물을 연결하는 네트워크 프로토콜이나 사물의 고유 식별자(identifier)에 대한 표준화에 중점을 두고 있다.Currently, the standardization of the Internet of things is being carried out mainly by public and private international organizations such as ISO, ITU, IEEE, IETF, oneM2M, and OMA. However, most of the network protocols or object identifiers It focuses on standardization.

사물 인터넷 표준화에 간과해서는 안 되는 중요한 점은 바로 기존 인터넷 상에서 가장 많이 교환되는 데이터가 미디어 콘텐츠(비디오, 오디오, 사진 등)였듯이, 사물 인터넷 환경에서 가장 많이 교환될 데이터 역시 미디어 콘텐츠라는 점이다. The important thing to keep in mind about Internet standardization of things is that most of the data exchanged on the Internet is media content (video, audio, photo, etc.), and most of the data exchanged in the Internet environment is also media content.

따라서 미디어 중심의 시각에서 사물 인터넷 시스템 및 서비스에 대한 고려와 이를 구성하는 인터페이스의 표준의 제정이 시급한 상황이다.Therefore, it is urgent to consider the Internet system and services and to establish the standard of the interfaces that constitute them.

KRKR 10-2015-008301310-2015-0083013 AA

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 미디어 중심 사물 인터넷 기반으로 미디어 사물들을 연결하고 사용자에 의해 부여된 임무를 수행하는 기술을 제공하고자 한다. Disclosure of Invention Technical Problem [8] The present invention is directed to solve the problems of the prior art described above and to provide a technology for connecting media objects based on a media center object Internet and performing a task assigned by a user.

예를 들어, 미디어 중심 사물 인터넷 기반의 미디어 사물을 이용하여 관심 개체를 감지하고 추적하는 방안을 제공하고자 한다.For example, we want to provide a method for detecting and tracking an object of interest using media objects based on media-centric objects.

상기와 같은 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 MIoT 기반의 미디어 사물은 사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 명령 처리 모듈; 및 상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 통신 처리 모듈을 포함한다. 여기서, 상기 통신 처리 모듈은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결한다. In order to achieve the above object, an MIOT-based media object according to an embodiment of the present invention includes a command processing module for generating a control command word or a message according to a task assigned by a user; And a communication processing module for transmitting at least one of the control command and the message to another media object. Here, the communication processing module communicates with the other media object by communication according to the assigned task without controlling the user.

본 발명의 일 실시예에 따른 MIoT 기반의 미디어 사물 동작 방법은 사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 단계; 및 상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 단계를 포함한다. 여기서, 상기 미디어 사물은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결된다.A method of operating a media object based on MIoT according to an embodiment of the present invention includes generating a control command word or a message according to a task assigned by a user; And transmitting at least one of the control command and the message to another media object. Here, the media objects are communicatively connected to the other media objects according to the assigned tasks without being controlled by the user.

본 발명의 일 실시예에 따르면, 미디어 중심 사물 인터넷 기반의 미디어 사물들을 연결시키고 효율적으로 임무를 수행할 수 있다. According to an embodiment of the present invention, it is possible to connect media objects based on the media centric object and efficiently perform tasks.

도 1은 본 발명의 일 실시예에 따른 미디어 중심 사물 인터넷 기반의 개체 감지 및 추적 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 데이터 교환을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 미디어 사물간 연결을 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 미디어 사물간 연결을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.
FIG. 1 is a block diagram illustrating a system for detecting and tracking an object based on a media centered object Internet according to an exemplary embodiment of the present invention. Referring to FIG.
2 illustrates an entity detection and tracking system in accordance with an embodiment of the present invention.
3 is a diagram illustrating data exchange in an entity detection and tracking system according to an embodiment of the present invention.
4 is a diagram illustrating a connection between media objects in an entity detection and tracking system according to an embodiment of the present invention.
5 is a diagram illustrating a connection between media objects in an entity detection and tracking system according to another embodiment of the present invention.
6 is a diagram illustrating human detection and tracking of an entity detection and tracking system in accordance with an embodiment of the present invention.
7 is a diagram illustrating human detection and tracking of an entity detection and tracking system in accordance with another embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "indirectly connected" .

또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 구비할 수 있다는 것을 의미한다.Also, when an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 미디어 중심 사물 인터넷 기반의 개체 감지 및 추적 시스템의 구성을 도시한 도면이다.FIG. 1 is a block diagram illustrating a system for detecting and tracking an object based on a media centered object Internet according to an exemplary embodiment of the present invention. Referring to FIG.

본 발명의 일 실시예에 따른 미디어 중심 사물 인터넷(Media-centric Internet of Things, 이하 'MIoT'라 칭함) 기반의 개체 감지 및 추적 시스템(이하, '개체 감지 및 추적 시스템'이라 칭함)은 관심 개체(Entity)(100) 및 복수의 미디어 사물(Media Thing)(이하, 'MThing'이라 칭함)(200)을 포함할 수 있다.An object detection and tracking system based on Media-centric Internet of Things (MIoT) according to an embodiment of the present invention (hereinafter referred to as an object detection and tracking system) (Entity) 100 and a plurality of media objects (Media Thing) (hereinafter, referred to as 'MThing') 200.

참고로, MIoT는 현실 세계와 가상 세계 내 기기와 사람간, 기기와 기기간의 상호 작용에 기초한 진보된(또는 지능화된) 서비스 및 응용을 가능하게 하는 모든 인터페이스, 프로토콜 및 미디어와 관련된 정보 표현(media-related information representation)의 조합으로서, 미디어를 수집하고 분석하여 그 결과를 활용해 각 사물들을 제어하는 총체적인 제품, 시스템 및 서비스를 포함할 수 있다.For reference, the MIoT is intended for all interfaces, protocols and media that enable advanced (or intelligent) services and applications based on interactions between devices and people in the real world and virtual worlds, -related information representation, which may include an overall product, system, and service that collects, analyzes, and utilizes the results to control each object.

개체 감지 및 추적 시스템의 각 구성 요소를 간략히 설명하면, 관심 개체(100)는 물리적 개체(Physical Object)와 가상의 개체(Virtual Object)를 포함할 수 있으며, MThing(200)에 의해 감지되거나 제어될 수 있는 대상이다.Briefly describing each component of the object detection and tracking system, the object of interest 100 may include a physical object and a virtual object, and may be sensed or controlled by the MThing 200 It can be an object.

한편, MThing(200)은 다른 사물(Thing)(MThing을 포함함)과 통신할 수 있는 사물들로서 관심 개체(100)를 감지하거나 제어하는 기능을 포함할 수 있으며, 관심 개체(100)에 대한 오디오 및 비디오 중 하나 이상을 감지하거나 제어할 수 있다.MThing 200 may include the ability to sense or control an object of interest 100 as objects that may communicate with other objects (including MThing) And / or video.

참고로, MIoT를 위한 인터페이스는 도 1에 도시된 바와 같이 사용자(user)와 MThing(200)의 인터페이스(이하, '제1 인터페이스'라 칭함), MThing(200)에 포함된 센서, 제어기, 프로세서간의 인터페이스(이하, '제2 인터페이스'라 칭함) 및 MThing(200)간 인터페이스(이하, '제3 인터페이스'라 칭함)로 구분될 수 있다.As shown in FIG. 1, the interface for MIoT includes an interface between the user and the MThing 200 (hereinafter referred to as a 'first interface'), a sensor included in the MThing 200, a controller, Interface (hereinafter referred to as a 'second interface') and an interface between MThing 200 (hereinafter referred to as a 'third interface').

'제1 인터페이스'는 사용자(user)와 MThing(200) 사이의 인터페이스로서, MThing(200)을 제어하는 셋업 정보(set-up information)를 포함할 수 있다.The 'first interface' is an interface between the user and the MThing 200, and may include set-up information for controlling the MThing 200.

여기서 '사용자'는 사물 인터넷 서비스나 제품의 콘텐츠 디자이너를 포함할 수 있으며, '셋업 정보'는 MThing(200)의 특성 파라미터 셋업이나 MThing(200)이 일정한 조건을 만났을 때 수행하는 명령어를 포함할 수 있다.The 'user' may include a content designer of the Internet or service of the product, and the 'setup information' may include instructions to be performed when the MThing 200 sets up characteristic parameters or MThing 200 encounters certain conditions have.

참고로, 제1 인터페이스에서 정해진 사용자 셋업 정보를 MThing(200) 사이에서 송수신하는 인터페이스가 존재할 수 있으며, 이하에서는 이를 '제1' 인터페이스'라 칭하도록 한다.For reference, there may exist an interface for transmitting / receiving user set up information set by the first interface between the MThing 200, which will be hereinafter referred to as a 'first interface'.

'제2 인터페이스'는 MThing(200)에 포함된 센서나 액추에이터로부터 생성되는 센서 데이터, 액추에이션 데이터를 처리하기 위한 인터페이스이다.The 'second interface' is an interface for processing sensor data and actuation data generated from sensors or actuators included in the MThing 200.

여기서 '센서 데이터'는 센서로부터 감지되는 데이터(예를 들어, 비디오 데이터)뿐만 아니라, 해당 데이터를 처리하여 획득하는 높은 수준의 센서 데이터(예를 들어 얼굴 서술자, 지문 서술자, 의료 진단명 등)를 포함할 수 있다.Here, 'sensor data' includes not only data (for example, video data) sensed by the sensor but also high-level sensor data (for example, a face descriptor, a fingerprint descriptor, a medical diagnosis name, etc.) can do.

그리고 '액추에이션 데이터'는 하나의 MThing(200)에서 감지된 관심 개체(100)를 다른 MThing(200)(예를 들어, 디스플레이 모니터)에서 콘텐츠로 활용할 때 사용되는 관심 개체의 정보(예를 들어, Binary Format for Scene;BIFS)를 포함할 수 있다.And the 'actuation data' may include information of an interested object (e.g., an object of interest) used when the interested object 100 sensed in one MThing 200 is utilized as contents in another MThing 200 (e.g., a display monitor) , Binary Format for Scene (BIFS).

참고로, 제2 인터페이스의 데이터가 MThing(200) 사이의 전송을 위한 포맷으로 변환되는 경우의 인터페이스가 존재할 수 있으며, 이하에서는 이를 '제2' 인터페이스'라 칭하도록 한다.For reference, there may be an interface when the data of the second interface is converted into a format for transmission between the MThing 200, which will be referred to as a 'second interface' hereinafter.

'제3 인터페이스'는 MThing(200)의 검색과 성능, 특성 등을 정의하기 위한 인터페이스로서, 상기 제1' 인터페이스와 제2' 인터페이스를 포함할 수 있다.The 'third interface' is an interface for defining the search, performance, and characteristics of the MThing 200, and may include the first interface and the second interface.

도 1에 도시된 개체 감지 및 추적 시스템의 일 실시예로서, 관심 개체(100)가 사람이고, MThing(200)이 카메라(camera), 추적 장치(tracker) 및 저장소(storage)를 포함하는 경우, 카메라는 시야에서 움직이는 사람을 감지하고 감지된 사람을 추적하여 오디오와 비디오를 캡쳐할 수 있으며, 추적 장치는 캡쳐된 비디오에서 사람을 인식하고 인식된 사람의 모습(외모)에 의한 인물 정보, 동선(움직임 궤도) 및 인식된 사람이 미디어 내에서 등장하는 시점(media location)에 대한 정보를 추출하여 카메라에서 캡쳐한 오디오 및 비디오 데이터와 함께 저장소에 저장할 수 있다.1, if the object of interest 100 is a person, and the MThing 200 includes a camera, a tracker, and a storage, The camera can detect the moving person in the field of vision and capture the audio and video by tracking the detected person. The tracking device recognizes the person in the captured video and displays the person information by the appearance (appearance) of the recognized person, A motion trajectory) and a media location in which the recognized person appears in the media, and store the extracted information together with the audio and video data captured by the camera.

위에서는 미디어 중심 사물 인터넷 시스템의 일 예로서, 개체 감지 및 추적 시스템을 예로 하였으나, 위의 인터페이스들을 사용하는 모든 시스템들을 포함할 수 있다. 다만, 설명의 편의를 위하여 개체 감지 및 추적 시스템으로 가정하고 상술하겠다. In the above example, an object detection and tracking system is exemplified as an example of the media center object Internet system, but it may include all systems using the above interfaces. However, for convenience of explanation, it will be assumed that the system is an object detection and tracking system.

이하, 관심 개체(100)가 사람이고, MThing(200)이 카메라(camera), 추적 장치(tracker) 및 저장소(storage)를 포함하는 경우, MThing(200) 사이의 정보 교환에 대하여 상세히 설명하도록 한다.Hereinafter, the information exchange between the MThing 200 will be described in detail when the object of interest 100 is a person and the MThing 200 includes a camera, a tracker and a storage .

도 2는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템을 도시한 도면이다.2 illustrates an entity detection and tracking system in accordance with an embodiment of the present invention.

본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 MThing(200)은 카메라(210), 추적 장치(220) 및 저장소(230)를 포함할 수 있다.MThing 200 of an entity detection and tracking system according to an embodiment of the present invention may include a camera 210, a tracking device 220, and a repository 230.

참고로, 도 2에 도시된 MThing(200)들은 동일한 액세스 포인트(Access Point)가 커버하는 영역 내에 위치하는 사물일 수 있다.For reference, the MThing 200 shown in FIG. 2 may be an object located in an area covered by the same access point.

도 2에 도시된 사용자(user)는 MThing(200)에 셋업 정보와 같은 임무(task)를 부여할 수 있다.The user shown in FIG. 2 may assign a task such as setup information to the MThing 200.

참고로 사용자는 MThing(200)의 일종으로서MThing(200)에 셋업 정보와 같은 임무를 부여할 수도 있지만, MThing(200)에 의해 감지 및 추적의 대상이 되는 경우 관심 개체(100)인 사람에 포함될 수도 있다.For reference, the user may assign a task such as setup information to the MThing 200 as a kind of MThing 200, but may be included in the person who is the interested entity 100 when the MThing 200 is the object of detection and tracking It is possible.

한편, 카메라(210)는 캡쳐 모듈(capturing module)(211), 명령 처리 모듈(command processing module)(212) 및 통신 처리 모듈(communication processing module)(213)을 포함할 수 있다.The camera 210 may include a capturing module 211, a command processing module 212, and a communication processing module 213.

여기서, 캡쳐 모듈(211)은 관심 개체(100)인 사람을 촬영할 수 있으며, 촬영에 따른 비디오 및 오디오 데이터 중 하나 이상을 캡쳐할 수 있다.Here, the capture module 211 can capture a person who is an object of interest 100, and can capture at least one of video and audio data according to shooting.

명령 처리 모듈(212)은 MThing(200)의 셋업 정보, 성질이나 성능에 대한 정보를 포함하는 메타데이터를 분석하고, 그에 대응하는 제어 명령어, 메시지 등을 포함하는 메타데이터를 생성할 수 있다.The command processing module 212 may analyze metadata including information on the setup information, properties, and performance of the MThing 200, and may generate metadata including control commands, messages, and the like corresponding thereto.

통신 처리 모듈(213)은 다른 MThing(200)과 통신할 수 있다.Communication processing module 213 may communicate with other MThing 200.

여기서 통신 처리 모듈(213)의 통신 방식은 유선과 무선의 모든 방식을 포함할 수 있다.Here, the communication method of the communication processing module 213 may include all wired and wireless methods.

한편, 추적 장치(220)는 감지된 데이터 처리 모듈(sensed data processing module)(221), 명령 처리 모듈(command processing module)(222) 및 통신 처리 모듈(communication processing module)(223)을 포함할 수 있다.The tracking device 220 may include a sensed data processing module 221, a command processing module 222 and a communication processing module 223, have.

여기서, 감지된 데이터 처리 모듈(221)은 카메라(210)에서 캡쳐된 비디오 및 오디오 데이터 중 하나 이상을 분석할 수 있으며, 분석 결과로서 디스크립터(descriptor) 및 디스크립션(description) 중 하나 이상을 생성할 수 있다.Here, the sensed data processing module 221 may analyze one or more of the video and audio data captured by the camera 210, and may generate at least one of a descriptor and a description as an analysis result have.

명령 처리 모듈(222)은 MThing(200)의 셋업 정보, 성질이나 성능에 대한 정보를 포함하는 메타데이터를 분석하고 이에 대응하는 제어 명령어, 메시지 등을 포함하는 메타데이터를 생성할 수 있다.The command processing module 222 may analyze metadata including information on setup information, property, and performance of the MThing 200, and may generate metadata including control commands, messages, and the like corresponding thereto.

통신 처리 모듈(223)은 다른 MThing(200)과 통신할 수 있다.Communication processing module 223 may communicate with other MThing 200.

여기서 통신 처리 모듈(223)의 통신 방식은 유선과 무선의 모든 방식을 포함할 수 있다.Here, the communication method of the communication processing module 223 may include all wired and wireless methods.

한편, 저장소(230)는 저장 처리 모듈(storage processing module)(231), 명령 처리 모듈(command processing module)(232) 및 통신 처리 모듈(communication processing module)(233)을 포함할 수 있다.The storage 230 may include a storage processing module 231, a command processing module 232 and a communication processing module 233.

여기서, 저장 처리 모듈(231)은 추적 장치(220)에 의해 요청되는 데이터들의 저장 처리를 수행할 수 있다.Here, the storage processing module 231 may perform storage processing of the data requested by the tracking device 220. [

명령 처리 모듈(232)은 MThing(200)의 셋업 정보, 성질이나 성능에 대한 정보를 포함하는 메타데이터를 분석하고 이에 대응하는 제어 명령어, 메시지 등을 포함하는 메타데이터를 생성할 수 있다.The command processing module 232 may analyze metadata including information on the setup information, property, and performance of the MThing 200, and may generate metadata including control commands, messages, and the like corresponding thereto.

통신 처리 모듈(233)은 다른 MThing(200)과 통신할 수 있다.Communication processing module 233 may communicate with other MThing 200.

여기서 통신 처리 모듈(233)의 통신 방식은 유선과 무선의 모든 방식을 포함할 수 있다.Here, the communication method of the communication processing module 233 may include all wired and wireless methods.

위에서는 개체 감지 및 추적 시스템을 예로 하였으나, MThing(200)이 사용되는 어떠한 동작 시스템에도 위의 방법에 적용될 수 있으며, 특히 사용자에 의해 임무를 부여받아 임무와 관련된 동작을 처리하도록 MThing(200)들이 상호 연결된다. 특히, MThing(200)은 기본적으로 명령 처리 모듈 및 통신 모듈을 포함하고 있으며, 기존 서버 등의 장치들과 달리 자체로 판단하고 임무를 처리하며, 예를 들어 임무 수행을 위한 메시지를 다른 MThing(200)과 송수신한다.Although an entity detection and tracking system has been described above, the MThing 200 can be applied to any of the operation systems in which the MThing 200 is used, and in particular, the MThing 200 Lt; / RTI > In particular, the MThing 200 basically includes a command processing module and a communication module. Unlike the existing servers, the MThing 200 determines itself and processes the task, for example, ).

도 3은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 데이터 교환을 도시한 도면이다.3 is a diagram illustrating data exchange in an entity detection and tracking system according to an embodiment of the present invention.

도 3은 개체 감지 및 추적 시스템에 새로운 MThing(300)이 추가되는 경우로서, 기존의 MThing(200)과 새롭게 추가된 MThing(300)간에 네트워크 내에서 데이터를 교환하는 과정을 나타내고 있다.FIG. 3 illustrates the process of exchanging data in the network between the existing MThing 200 and the newly added MThing 300 when a new MThing 300 is added to the entity detection and tracking system.

새롭게 추가된 MThing이 MIoT 기반의 카메라(이하, '추가된 카메라'라 칭함)(300)인 경우를 가정하면, 추가된 카메라(300)는 네트워크를 이용하여 MThing 정보, 즉, 자신의 셋업 정보, 성질이나 성능에 대한 정보를 네트워크 내에 존재하는 다른(기존의) MThing(200)으로 브로드캐스팅(broadcasting)할 수 있다(S301).Assuming that the newly added MThing is an MIoT-based camera 300, the added camera 300 transmits MThing information, that is, its setup information, Information about properties and performance may be broadcast to another (existing) MThing 200 existing in the network (S301).

이후, 기존의 MThing(200)들은 추가된 카메라(300)의 브로드캐스팅된 MThing 정보를 저장하고(S302), 자신의 MThing 정보, 즉, 자신의 셋업 정보, 성질이나 성능에 대한 정보를 추가된 카메라(300)로 전송할 수 있다(S303).The existing MThing 200 stores the broadcast MThing information of the added camera 300 (S302), and transmits information about its own MThing information, i.e., its setup information, property or performance, (S303).

이후, 추가된 카메라(300)는 기존의 MThing(200)들로부터 수신된 MThing 정보를 저장할 수 있다(S304).Thereafter, the added camera 300 may store the MThing information received from the existing MThing 200 (S304).

참고로, S301과 S303은 도 1에서 언급했던 제3 인터페이스를 통해 수행될 수 있다.For reference, S301 and S303 may be performed through the third interface referred to in FIG.

위의 과정은 MThing을 MIoT 시스템에 등록하는 과정에서 수행되는 것으로서, 새롭게 추가된MThing은 자신의 정보를 브로드캐스팅하여 기존에 존재하는 다른 MThing들에게 정보를 전송하고, 다른 MThing들은 상기 브로드캐스팅 정보에 기반하여 새롭게 추가된 MThing에 자신의 정보를 전송한다. 결과적으로, 모든 MThing들이 서로의 정보를 모두 포함하고 있다. 따라서, 사용자가 어떤 임무를 부여하면, MThing은 자신이 가지고 있는 다른 MThing들의 리스트를 검색하여 임무를 수행하기에 가장 적합한 MThing과 연결하여 임무를 수행한다.The above process is performed in the process of registering the MThing in the MIoT system. The newly added MThing broadcasts its own information and transmits the information to other existing MThings. And transmits its own information to the newly added MThing. As a result, all the MThing contain all the information of each other. Thus, when a user assigns a task, MThing searches the list of other MThing that it has, and performs the task by connecting with MThing which is most suitable for performing the task.

도 4는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 MThing간 연결(connecting)을 도시한 도면이다.4 is a diagram illustrating MThing connections between an entity detection and tracking system according to an embodiment of the present invention.

도 4는 도 3에서 추가된 카메라(300)에 임무가 주어지고, 추가된 카메라(300)는 해당 임무 수행에 필요한 주변의 MThing(200)들을 검색하는 경우로서, 추가된 카메라(300), 추적 장치(220) 및 저장소(230)간의 연결 과정을 나타내고 있다.FIG. 4 shows a case where a camera 300 added in FIG. 3 is assigned a task and the added camera 300 searches for surrounding MThing 200 required for performing the mission, The connection between the device 220 and the storage 230 is shown.

먼저, 사용자는 추가된 카메라(300)에 셋업 정보 등의 명령어를 포함하는 임무를 설정할 수 있으며(S401), 추가된 카메라(300)는 상기 설정된 임무를 분석하여 임무 수행에 필요한 주변의 MThing(200)들(추적 장치(220) 및 저장소(230))을 검색할 수 있다(S402).First, the user can set a task including an instruction such as setup information to the added camera 300 (S401). The added camera 300 analyzes the set task and acquires the surrounding MThing 200 (Tracking device 220 and storage 230) (S402).

이후, 추가된 카메라(300)는 검색된 저장소(230)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S403), 저장소(230)는 수신된 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 추가된 카메라(300)로 전송할 수 있다(S404). 여기서, 추가된 카메라(300)와 저장소(230)의 연결이 성립된다.Thereafter, the added camera 300 transmits a connection request message for confirming connection availability to the retrieved storage 230 (S403), and the storage 230 transmits a response (Yes or No) to the received connection request message Yes ") to the added camera 300 (S404). Here, the connection between the added camera 300 and the storage 230 is established.

이후, 추가된 카메라(300)는 오디오/비디오(이하, 'A/V'라 칭함) 스트리밍 URL을 생성하고, 연결된 저장소(230)로 상기 생성된 URL을 전송한다(S405).Thereafter, the added camera 300 generates an audio / video (A / V) streaming URL and transmits the generated URL to the connected storage 230 (S405).

이후, 저장소(230)는 추가된 카메라(300)로부터 수신된 A/V 스트리밍 URL에 접속할 수 있다(S406).Thereafter, the storage 230 can access the A / V streaming URL received from the added camera 300 (S406).

이후, 추가된 카메라(300)는 A/V 스트리밍 URL을 통해 A/V 데이터를 전송하고(S407), 저장소(230)는 접속된 A/V 스트리밍 URL을 통해 A/V 데이터를 수신하여 저장할 수 있다(S408).Thereafter, the added camera 300 transmits the A / V data through the A / V streaming URL (S407), and the storage 230 can receive and store the A / V data through the connected A / V streaming URL (S408).

이후, 추가된 카메라(300)는 S402에서 검색된 추적 장치(220)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송한다(S409).Thereafter, the added camera 300 transmits a connection request message to the tracking device 220 searched in S402 to confirm whether or not the connection is possible (S409).

이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 추가된 카메라(300)로 전송할 수 있으며, 이때, 연결된 저장소의 ID(URL)를 메시지로 반환할 수 있다(S410). 여기서 추가된 카메라(300)와 추적 장치(220)의 연결이 성립된다.The tracking device 220 may then transmit a response (Yes or No) to the camera 300 that has been added from the camera 300, to the added camera 300, At this time, the ID (URL) of the connected storage can be returned as a message (S410). The connection between the added camera 300 and the tracking device 220 is established here.

이후, 추가된 카메라(300)는 A/V 스트리밍 URL을 생성하고, 연결된 저장소(230)로 상기 생성된 URL을 전송한다(S411).Thereafter, the added camera 300 generates an A / V streaming URL and transmits the generated URL to the connected storage 230 (S411).

이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 A/V 스트리밍 URL에 접속하고(S412), 추가된 카메라(300)는 A/V 스트리밍 URL을 통해 A/V 데이터를 전송할 수 있다(S413).Thereafter, the tracking device 220 accesses the A / V streaming URL received from the added camera 300 (S412) and the added camera 300 can transmit the A / V data via the A / V streaming URL (S413).

참고로, 상기 S401은 도 1에서 언급했던 제1 인터페이스를 통해 수행될 수 있으며, 상기 S407과 S413은 제2' 인터페이스를 통해 수행될 수 있다. 그리고 상기 S405, S410 및 S411은 제3 인터페이스를 통해 수행될 수 있다.For reference, step S401 may be performed through the first interface referred to in FIG. 1, and steps S407 and S413 may be performed through the second interface. And S405, S410, and S411 may be performed through the third interface.

정리하면, 본 실시예의 과정은 도 3의 과정에서 MThing들이 서로 정보를 저장하고 있는 상태에서 사용자로부터 임무가 부여되었을 때 시작된다. 우선, 임무를 부여받은 MThing은 현재 필요한 MThing들이 사용 중이거나 전원이 꺼져 있는 지 등을 판단하기 위하여 연결 가능한지를 파악하기 위한 메시지를 송신하고, 연결 가능 여부를 응답받아 연결한다. 그런 후, MThing들은 사용자가 부여한 임무에 맞도록 상호 통신하면서 임무를 수행한다. In summary, the process of the present embodiment starts when a task is given by a user in a state where MThing stores information with respect to each other in the process of FIG. First, the assigned MThing sends a message to determine if it is possible to determine whether the current MThing is in use, or whether the power is off. Then, the MTings perform their duties while communicating with each other to meet the mission assigned to the user.

위에서는, 감지 및 추적 과정을 예로 하였으나, 다른 임무에도 위의 과정이 적용될 수 있다. 예를 들어, Microphone, Audio Analyzer, Alarm으로 구성된 환경에서, 사용자는 Microphone에 거친 숨소리를 감지해 알람을 울려라 라는 임무를 부여할 수 있다. 이에 따라, 사용자가 Microphone에 임무를 부여하고, Microphone이 임무에 필요한 Audio Analyzer와 Alarm를 찾고 연결 가능여부를 묻고 답하여 임무 환경을 조성한다. 이어서, Microphone은 소리를 감지하고 Audio Analyzer에 오디오 데이터를 전송하며, Audio Analyzer는 전송 받은 오디오 데이터를 통해 거친 숨소리를 감지한다. Audio Analyzer는 거친 숨소리를 감지하게 되면 Alarm에게 메시지를 전송해 Alarm이 작동해서 위급한 상황임을 알릴 수 있다.In the above, the detection and tracking process is exemplified, but the above process can be applied to other tasks. For example, in an environment consisting of a Microphone, Audio Analyzer, and Alarm, the user can assign the task of detecting a breathing sound to the microphone and ring the alarm. Accordingly, the user assigns the mission to the microphone, and the microphone finds the Audio Analyzer and Alarm necessary for the mission, and asks whether or not the connection is possible. The microphone then senses the sound and transmits the audio data to the Audio Analyzer. The Audio Analyzer senses the rough sound through the transmitted audio data. When the Audio Analyzer detects a rough breath, it sends a message to the alarm to alert you that the alarm is in critical condition.

도 5는 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 MThing간 연결(connecting)을 도시한 도면이다.5 is a diagram illustrating MThing connections between an entity detection and tracking system according to another embodiment of the present invention.

도 5는 도 4의 경우와 유사하나, 도 4의 저장소(이하, '제1 저장소'라 칭함)(230)와는 다른 저장소(이하, '제2 저장소'라 칭함)(230')를 이용하는 경우이다.5 is similar to the case of FIG. 4, but when using a repository (hereinafter referred to as 'second repository') 230 'different from the repository 230 of FIG. 4 (hereinafter referred to as' to be.

추가된 카메라(300)는 추적 장치(220)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송한다(S501).The added camera 300 transmits a connection request message to the tracking device 220 to confirm whether or not the connection is possible (S501).

이후, 추적 장치(220)는 추가된 카메라(300)로부터 연결 요청 메시지가 수신되면, 우선 순위의 저장소 정보를 이용하여 사용 가능한 저장소를 선택할 수 있다(S502).Thereafter, when the connection request message is received from the camera 300, the tracking device 220 can select a usable storage using the priority storage information (S502).

이후, 추적 장치(220)는 S502에서 선택된 제2 저장소(230')로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S503), 제2 저장소(230')는 추적 장치(220)로 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 전송한다(S504). 여기서, 추적 장치(220)와 제2 저장소(230')의 연결이 성립한다.Thereafter, the tracking device 220 transmits a connection request message to the second storage 230 'selected in step S502 to confirm whether or not the connection is possible in step S503. The second storage 230' is connected to the tracking device 220 A response to the request message (Yes or No, hereinafter the case of Yes) is transmitted (S504). Here, the connection between the tracking device 220 and the second storage 230 'is established.

이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 추가된 카메라(300)로 전송할 수 있으며, 이때, 연결된 저장소의 ID(URL)를 메시지로 반환할 수 있다(S505).The tracking device 220 may then transmit a response (Yes or No) to the camera 300 that has been added from the camera 300, to the added camera 300, At this time, the ID (URL) of the connected storage can be returned as a message (S505).

이후, 추가된 카메라(300)는 A/V 스트리밍 URL을 생성하고, 연결된 제2 저장소(230')에 상기 생성된 URL을 전송한다(S506).Then, the added camera 300 generates an A / V streaming URL and transmits the generated URL to the connected second storage 230 '(S506).

이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 A/V 스트리밍 URL에 접속하고(S507), 추가된 카메라(300)는 A/V 스트리밍 URL을 통해 A/V 데이터를 전송할 수 있다(S508).Thereafter, the tracking device 220 accesses the A / V streaming URL received from the added camera 300 (S507), and the added camera 300 can transmit the A / V data via the A / V streaming URL (S508).

참고로, 상기 S505와 S506은 도 1에서 언급했던 제3 인터페이스를 통해 수행될 수 있으며, 상기 S508은 제2' 인터페이스를 통해 수행될 수 있다.For reference, the steps S505 and S506 may be performed through the third interface referred to in FIG. 1, and the step S508 may be performed through the second interface.

위에서는 개체 감지 및 추적 과정을 예로 하였으나, 사용자의 임무 부여에 따라 제 1 MThing이 제 2 MThing으로 연결을 요청하고, 상기 제 2 MThing이 임부에 필요한 제 3 MThing을 찾아 연결하고 상기 제 3 MThing을 상기 제 1 MThing에 연결시키는 한 다양한 예들로 확장될 수 있다. In the above example, the process of detecting and tracking an individual is exemplified. However, according to the assignment of the user, the first MThing requests a connection by a second MThing, the second MThing finds and connects a third MThing required for the mother, Lt; RTI ID = 0.0 > MThing. ≪ / RTI >

도 6은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.6 is a diagram illustrating human detection and tracking of an entity detection and tracking system in accordance with an embodiment of the present invention.

도 6은 카메라(210)가 사람을 감지하고 추적하는 임무를 수행하는 경우이다.6 shows a case where the camera 210 performs a task of detecting and tracking a person.

카메라(210)는 촬영되는 A/V 데이터를 추적 장치(220)로 전송한다(S601).The camera 210 transmits the photographed A / V data to the tracking device 220 (S601).

이후, 추적 장치(220)는 카메라(210)에서 전송되는 비디오 데이터에서 사람을 인식하고, 인식된 사람을 추적하기 위한 특징점을 추출할 수 있다.Thereafter, the tracking device 220 recognizes a person from the video data transmitted from the camera 210, and extracts feature points for tracking the recognized person.

구체적으로, 추적 장치(220)는 캡쳐된 비디오에서 사람을 인식하고 인식된 사람의 모습(외모)에 의한 인물 정보, 동선(움직임 궤도) 및 인식된 사람이 미디어 내에서 등장하는 시점(media location)에 대한 정보를 추출할 수 있다(S602).Specifically, the tracking device 220 recognizes a person in the captured video and displays the information on the person, the motion (orbit), and the media location in which the recognized person appears in the media based on the recognized person's appearance (appearance) Can be extracted (S602).

이후, 추적 장치(220)는 상기 추출된 인물 정보, 동선(움직임 궤도), 인식된 사람이 미디어 내에서 등장하는 시점에 대한 정보를 포함하는 메타데이터를 생성하고(S603), 생성된 메타데이터를 표준화된 포맷으로 변환하여 저장소(230)로 전송한다(S604).Thereafter, the tracking device 220 generates metadata including the extracted person information, a moving line (motion orbit), information on a time when the recognized person appears in the media (S603), and generates the generated metadata Converted into a standardized format, and transmitted to the storage 230 (S604).

이후, 저장소(230)는 추적 장치(220)로부터 수신된 메타데이터를 저장할 수 있다(S605).Thereafter, the repository 230 may store the metadata received from the tracking device 220 (S605).

참고로, 상기 S601과 S604은 도 1에서 언급했던 제2' 인터페이스를 통해 수행될 수 있다.For reference, steps S601 and S604 may be performed through the second interface referred to in FIG.

정리하면, 본 실시예의 방법은 다른 MThing으로부터 전송된 정보를 포함하는 메타데이터를 생성하고, 상기 생성된 메타데이터를 자신 또는 또 다른 MThing에 저장시킬 수 있다. 물론, 이러한 방법은 감지 및 추적 과정으로 한정되지 않고 많은 임무들에 적용될 수 있다. In summary, the method of the present embodiment may generate metadata including information transmitted from another MThing, and may store the generated metadata in itself or another MThing. Of course, this method is not limited to the detection and tracking process and can be applied to many tasks.

예를 들어, Camera, Face recognizer, Scent shooter, Audio player 등 여러가지 복잡한 임무의 경우에도 어떤 media 정보나 MThing의 정보를 metadata로 정의하여 주고받고 간단한 메시지의 경우에는 단순한 메세징을 통해 통신할 수 있다.For example, in case of complex tasks such as camera, face recognizer, Scent shooter, and audio player, some media information and MThing information can be defined as metadata and simple messages can be communicated through simple messaging.

도 7은 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.7 is a diagram illustrating human detection and tracking of an entity detection and tracking system in accordance with another embodiment of the present invention.

도 7은 도 6에서 임무(task)를 수행하던 제1 카메라(210)가 더 이상 임무를 수행할 수 없을 때, 즉, 감지된 사람이 촬영 시야에서 벗어났을 때, 제1 카메라(210)는 해당 임무를 이어서 수행할 다른 카메라(300)를 검색하고, 임무를 이어 받은 추가된 카메라인 제2 카메라(300)는 자신과 함께 임무를 수행할 MThing들을 검색하여 연결되는 과정이다.FIG. 7 is a flowchart illustrating an operation of the first camera 210 when the first camera 210 performing the task in FIG. 6 can not perform the task any more, that is, when the detected person is out of the shooting field of view. The second camera 300, which is an additional camera that has succeeded to search for another camera 300 to perform the task, searches for MThing to perform the task together with the second camera 300, and is connected.

구체적으로, 추적 장치(220)는 임무를 중단하라는 메시지를 제1 카메라(210)로 전송하며, 이때, 사람의 모습(외모)에 의한 인물 정보, 동선(움직임 궤도) 및 인식된 사람이 미디어 내에서 등장하는 시점(media location)에 대한 정보를 포함하는 메타데이터를 함께 전송할 수 있다(S701).Specifically, the tracking device 220 transmits a message to the first camera 210 to stop the mission. At this time, the person information, the motion (orbit) and the person recognized by the person's appearance (Metadata) including information on a media location in the media server (S701).

이후, 제1 카메라(210)는 자신의 임무를 이어서 수행할 제2 카메라(300)를 검색하고, 제2 카메라(300)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송한다(S702).Thereafter, the first camera 210 searches for a second camera 300 to perform its mission and transmits a connection request message to the second camera 300 (S702).

이후, 제2 카메라(300)는 제1 카메라(210)의 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 제1 카메라(210)로 전송하며(S703), 이로써 제1 카메라(210)와 제2 카메라(300)가 연결될 수 있다.Then, the second camera 300 transmits a response (Yes or No) to the first camera 210 (S703) to the first camera 210 in response to the connection request message of the first camera 210, So that the first camera 210 and the second camera 300 can be connected.

이후, 제1 카메라(210)는 S701에서 추적 장치(220)로부터 수신된 메타데이터를 제2 카메라(300)로 전송한다(S704). 여기서 제1 카메라(210)와 제2 카메라(300)의 연결은 종료된다.Then, the first camera 210 transmits the metadata received from the tracking device 220 to the second camera 300 in step S701 (step S704). Here, the connection between the first camera 210 and the second camera 300 is terminated.

이후, 제2 카메라(300)는 추적 장치(220)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S705), 추적 장치(220)는 제2 카메라(300)의 연결 요청 메시지에 대한 응답(Yes or No)을 제2 카메라(300)로 전송하여(S706), 제2 카메라(300)와 추적 장치(220)가 연결될 수 있다.Thereafter, the second camera 300 transmits a connection request message to the tracking device 220 to confirm whether or not the connection is possible (S705), and the tracking device 220 transmits a response to the connection request message of the second camera 300 (Yes or No) to the second camera 300 (S706), and the second camera 300 and the tracking device 220 can be connected.

이후, 제2 카메라(300)는 저장소(230)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S707), 저장소(230)는 제2 카메라(300)의 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 제2 카메라(300)로 전송하여(S708), 제2 카메라(300)와 저장소(230)가 연결될 수 있다.Thereafter, the second camera 300 transmits a connection request message for confirming whether or not the connection to the storage 230 is possible (S707), and the storage 230 transmits a connection request message (Yes) to the connection request message of the second camera 300 the second camera 300 and the storage 230 may be connected to the second camera 300 in step S708.

정리하면, 본 실시예의 방법은 제 1 MThing과 연결된 제 2 MThing이 임무를 수행할 수 없는 상황이 된 경우 제 2 MThing이 임무를 대신 수행할 제 3 MThing을 찾고 상기 제 3 MThing에 메타데이터를 전송한다. 그 결과, 상기 제 1 MThing과 상기 제 3 MThing의 연결이 가능하게 되며, 상기 제 3 MThing은 상기 제 1 MThing과 통신하면서 상기 제 2 MThing을 대신하여 임무를 수행하게 된다. In summary, if the second MThing associated with the first MThing becomes unable to perform the task, the method of the present embodiment finds the third MThing to perform the task instead, and transmits the metadata to the third MThing do. As a result, the connection between the first MThing and the third MThing becomes possible, and the third MThing communicates with the first MThing to perform the task instead of the second MThing.

위에서는 감지 및 추적을 예로 하였으나, 이로 한정되지 않는다. 예를 들어 Camera, Face recognizer, Scent shooter, Audio player로 구성되어 있는 임무의 환경에서 Camera가 비디오 정보를 Face recognizer에 전달하고 Face recognizer는 얼굴을 인식하여 그 사람이 좋아하는 향기를 뿜고 좋아하는 노래를 나오게 할 수 있다. 그러나, 사람이 거실에 있다가 화장실에 가게 되면 거실에 있던 Camera는 더 이상 그 사람을 찍을 수 없어 화장실에 있는 Camera에 임무를 대신 해줄 수 있냐는 메시지를 보내고 임무를 수행할 수 있으면 화장실에 있는 Camera가 임무를 이어서 수행할 수 있다. In the above example, detection and tracking are exemplified, but are not limited thereto. For example, in a mission environment composed of a camera, a face recognizer, a scent shooter, and an audio player, a camera transmits video information to a face recognizer, a face recognizer recognizes a face, Can come out. However, when a person is in the living room and goes to the bathroom, the camera in the living room can not take the person anymore, so he can send a message to the camera in the bathroom to do his duty and perform the mission. Can continue to perform the task.

마찬가지로 Scent shooter나 Audio player도 화장실에 있는 Scent shooter와 Audio player에게 임무를 전달하고 자신들은 임무에서 벗어나게 된다. 다만, Face recognizer 같은 경우에는 위치와 상관없이 어떤 video data를 받아도 임무를 수행할 수 있으므로 기존과 같은 Face recognizer를 쓸 수도 있다.Likewise, a Scent shooter or an Audio player also transfers missions to the Scent shooter and Audio player in the toilet, and they get out of the mission. However, in the case of a face recognizer, it is possible to use any existing face recognizer because it can carry out tasks regardless of the position of any video data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다. It will be apparent to those skilled in the art that various modifications, additions and substitutions are possible, without departing from the spirit and scope of the invention as defined by the appended claims. Should be regarded as belonging to the following claims.

100 : 관심 개체
200 : MThing
210, 300 : 카메라
211 : 캡쳐 모듈
212 : 명령 처리 모듈
213 : 통신 처리 모듈
220 : 추적 장치
221 : 감지된 데이터 처리 모듈
222 : 명령 처리 모듈
223 : 통신 처리 모듈
230 : 저장소
231 : 저장 처리 모듈
232 : 명령 처리 모듈
233 : 통신 처리 모듈
100: Interested object
200: MThing
210, 300: camera
211: Capture module
212: Command processing module
213: Communication processing module
220: Tracking device
221: sensed data processing module
222: command processing module
223: Communication processing module
230: Store
231: storage processing module
232: command processing module
233: Communication processing module

Claims (24)

미디어 중심 사물 인터넷(Media-centric Internet of Things;MIoT) 기반의 미디어 사물(Media Thing, MThing)에 있어서,
사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 명령 처리 모듈; 및
상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 통신 처리 모듈을 포함하되,
상기 통신 처리 모듈은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
In Media Thing (MThing) based on the Media-centric Internet of Things (MIoT)
A command processing module for generating a control command or a message in accordance with the task assigned by the user; And
And a communication processing module for transmitting at least one of the control command and the message to another media object,
Wherein the communication processing module communicates with the other media objects by communication according to the assigned task without controlling the user.
제1항에 있어서, 상기 명령 처리 모듈은 상기 부여된 임무에 따라 자신의 메타데이터 또는 상기 다른 미디어 사물의 메타데이터를 분석하고 상기 분석 결과에 따라 상기 제어 명령어 또는 상기 메시지를 생성하되,
상기 메타데이터는 해당 미디어 사물의 셋업 정보, 성질 또는 성능에 대한 정보를 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
The method of claim 1, wherein the command processing module analyzes the meta data of the meta data or the other media object according to the assigned task and generates the control command or the message according to the analysis result,
Wherein the metadata includes information about setup information, properties, or performance of a corresponding media object.
제1항에 있어서,
상기 부여된 임무에 따라 촬영 시야에 존재하는 관심 개체를 감지하고, 상기 감지되는 관심 개체를 촬영하여 미디어를 생성하는 캡쳐 모듈을 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
The method according to claim 1,
Further comprising a capture module for sensing an object of interest existing in the field of view according to the assigned task, and capturing the sensed object of interest and creating a media.
제1항에 있어서,
상기 다른 미디어 사물로부터 관심 개체를 촬영한 미디어가 수신되면, 상기 수신된 미디어를 분석하여 디스크립터(descriptor)와 디스크립션(description)을 생성하는 데이터 처리 모듈을 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
The method according to claim 1,
Further comprising a data processing module for analyzing the received media to generate a descriptor and a description when the media on which the object of interest has been captured is received from the other media object, .
제1항에 있어서,
상기 다른 미디어 사물로부터 저장 요청되는 데이터를 저장하는 저장 처리 모듈을 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
The method according to claim 1,
And a storage processing module for storing data requested to be stored from the other media objects.
제1항에 있어서, 상기 통신 처리 모듈은 상기 생성된 제어 명령어 또는 상기 메시지를 브로드캐스팅하되,
상기 통신 처리 모듈은 상기 다른 미디어 사물로부터 상기 브로드캐스팅에 대한 응답으로서 상기 다른 미디어 사물의 메타데이터를 수신하고, 상기 명령 처리 모듈은 상기 수신된 메타데이터를 저장하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
2. The method of claim 1, wherein the communication processing module broadcasts the generated control command or the message,
Wherein the communication processing module receives metadata of the other media object as a response to the broadcasting from the other media object, and the command processing module stores the received metadata. .
제1항에 있어서, 상기 통신 처리 모듈은 네트워크에 새롭게 추가된 미디어 사물로부터 브로드캐스팅된 메타데이터를 수신하고, 상기 명령 처리 모듈은 상기 수신된 메타데이터에 응답하여 자신의 메타데이터를 전송시키는 것을 특징으로 하는 MIoT 기반의 미디어 사물.The communication processing module according to claim 1, wherein the communication processing module receives metadata broadcast from a media object newly added to a network, and the command processing module transmits its metadata in response to the received metadata Media objects based on MIoT. 제1항에 있어서, 상기 명령 처리 모듈은 상기 임무를 포함하는 메타데이터를 분석하고 분석 결과에 기반하여 하나 이상의 다른 미디어 사물을 검색하여 선택하며, 상기 선택된 하나 이상의 다른 미디어 사물로 데이터를 전송하기 위한 스트리밍 URL을 생성하고,
상기 통신 처리 모듈은 상기 선택된 미디어 사물로 연결 요청 메시지를 전송하고, 상기 선택된 미디어 사물로부터 연결 요청 메시지에 대한 응답을 수신하며, 상기 선택된 미디어 사물로 상기 생성된 스트리밍 URL을 전송하고, 상기 스트리밍 URL로 상기 데이터를 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
3. The method of claim 1, wherein the command processing module is further configured to analyze metadata including the task, to search for and select one or more other media objects based on the analysis results, and to transmit data to the selected one or more other media objects Create a streaming URL,
The communication processing module transmits a connection request message to the selected media object, receives a response to the connection request message from the selected media object, transmits the generated streaming URL to the selected media object, And transmits the data.
제1항에 있어서, 상기 명령 처리 모듈은 다른 미디어 사물로부터 연결 요청 메시지가 수신되면, 상기 수신된 연결 요청 메시지에 대한 응답 메시지를 생성하고, 상기 통신 처리 모듈은 상기 생성된 응답 메시지를 상기 다른 미디어 사물로 전송하되,
상기 통신 처리 모듈은 상기 다른 미디어 사물과 연결이 성립되면 상기 다른 미디어 사물로부터 데이터 전송을 위해 생성된 스트리밍 URL을 수신하고, 상기 명령 처리 모듈은 상기 수신된 스트리밍 URL에 접속하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
The method of claim 1, wherein the command processing module generates a response message for the received connection request message when a connection request message is received from another media object, and the communication processing module transmits the generated response message to the other media Transfer to the object,
Wherein the communication processing module receives a streaming URL generated for data transmission from the other media object when a connection with the other media object is established and the command processing module accesses the received streaming URL Media objects.
제1항에 있어서, 상기 명령 처리 모듈은 상기 다른 제 1 미디어 사물로부터 연결 요청 메시지가 수신되면 상기 수신된 연결 요청 메시지에 대한 응답 메시지를 생성하고, 하나 이상의 다른 제 2 미디어 사물에 대한 메타데이터를 이용하여 우선 순위에 따라서 사용 가능한 하나의 다른 제 2 미디어 사물을 선택하며, 상기 선택된 다른 제 2 미디어 사물로 전송하기 위한 연결 요청 메시지를 생성하고,
상기 통신 처리 모듈은 상기 다른 제1 미디어 사물로부터 연결 요청 메시지를 수신하고, 상기 생성된 응답 메시지와 상기 선택된 다른 제2 미디어 사물의 식별자 또는 URL을 상기 다른 제1 미디어 사물로 전송하며, 상기 선택된 다른 제2 미디어 사물로 연결 요청 메시지를 전송하고, 상기 다른 제2 미디어 사물로부터 상기 연결 요청 메시지에 대한 응답 메시지를 수신하되,
상기 명령 처리 모듈은 데이터를 전송하기 위해 상기 다른 제1 미디어 사물이 생성한 스트리밍 URL에 접속하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
The method of claim 1, wherein the command processing module generates a response message for the received connection request message when the connection request message is received from the first media object, Selecting a second different media object that can be used according to the priority, generating a connection request message for transmission to the selected second media object,
Wherein the communication processing module receives a connection request message from the other first media object and transmits the generated response message and an identifier or URL of the selected second media object to the different first media object, Transmitting a connection request message to a second media object and receiving a response message for the connection request message from the other second media object,
Wherein the command processing module accesses a streaming URL generated by the other first media object to transmit data.
제1항에 있어서, 상기 명령 처리 모듈은 다른 제1 미디어 사물로부터 수신된 오디오/비디오 데이터로부터 관심 개체를 감지하고, 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 감지된 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 추출하며, 상기 추출된 정보를 포함하는 메타데이터를 생성하고, 상기 생성된 메타데이터를 미리 정해진 포맷으로 변환하며,
상기 통신 처리 모듈은 상기 다른 제1 미디어 사물로부터 상기 오디오/비디오 데이터를 수신하고, 상기 변환된 포맷의 메타데이터를 상기 다른 제2 미디어 사물로 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
2. The method of claim 1, wherein the command processing module detects an object of interest from audio / video data received from another first media object, and receives information about the object of interest based on the contour of the object of interest and the contour, Extracting at least one of information on a location of the object of interest and information on a media location of the sensed interest object in the data, generating metadata including the extracted information, Format,
Wherein the communication processing module receives the audio / video data from the other first media object and transmits the converted formatted metadata to the second different media object.
제1항에 있어서, 상기 명령 처리 모듈은 다른 제1 미디어 사물의 임무를 수행 가능 여부를 판단하고, 상기 다른 제1 미디어 사물이 상기 임무를 수행할 수 없는 경우라고 판단되면 임무 중지 메시지를 생성하며,
데이터 처리 모듈은 상기 다른 제1 미디어 사물이 촬영한 관심 개체에 대한 데이터로부터 메타데이터 - 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 를 추출하고,
상기 통신 처리 모듈은 상기 다른 제1 미디어 사물로 상기 임무 중지 메시지와 상기 메타데이터를 전송하되,
상기 명령 처리 모듈은 상기 다른 제1 미디어 사물이 선택한 동일 기능을 수행하는 미디어 사물인 다른 제2 미디어 사물로부터 수신된 연결 가능 여부를 묻는 메시지에 대한 응답 메시지를 생성하며,
상기 통신 처리 모듈은 상기 다른 제2 미디어 사물로부터 상기 연결 가능 여부를 묻는 메시지를 수신하고, 상기 생성된 응답 메시지를 상기 다른 제2 미디어 사물로 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
The method of claim 1, wherein the command processing module determines whether or not the task of the first media object can be performed, and generates a task stop message if it is determined that the other first media object can not perform the task ,
The data processing module is configured to extract metadata from the data of the interested object photographed by the other first media object, information of the interested object based on the contour of the interested object and the contour, the motion orbit information of the interested object, Extracting information including at least one of information about a media location at which the object appears,
Wherein the communication processing module transmits the mission stop message and the metadata to the other first media object,
Wherein the command processing module generates a response message to a message inquiring about whether or not the connection is received from another second media object that is a media object that performs the same function selected by the other first media object,
Wherein the communication processing module receives a message asking whether the connection is possible from the second media object, and transmits the generated response message to the second media object.
제1항에 있어서, 상기 명령 처리 모듈은 다른 제1 미디어 사물로부터 임무 중지 메시지와 메타데이터 - 관심 개체를 촬영한 데이터로부터 추출된 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 가 수신되면, 동일 기능을 수행하는 미디어 사물인 다른 제2 미디어 사물을 검색하여 선택하고, 상기 선택된 다른 제2 미디어 사물로 전송할 연결 가능 여부를 묻는 메시지를 생성하며,
상기 통신 처리 모듈은 상기 생성된 연결 가능 여부를 묻는 메시지를 상기 다른 제2 미디어 사물로 전송하고, 상기 다른 제2 미디어 사물로부터 응답 메시지를 수신하되,
상기 명령 처리 모듈은 상기 다른 제2 미디어 사물로부터 상기 응답 메시지가 수신되면, 상기 메타데이터를 상기 다른 제2 미디어 사물로 전송시키는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
2. The system of claim 1, wherein the command processing module is configured to receive from the first media object the information of the interest entity based on the outline of the interest entity and the outline extracted from the data of the mission stop message and the metadata- And information on a media location of the object of interest in the data is received, a second media object, which is a media object performing the same function, is searched for Generates a message asking whether or not to connect to the selected second media object,
Wherein the communication processing module transmits a message asking whether the connection is possible to the second media object and receives a response message from the second media object,
Wherein the command processing module transmits the metadata to the second media object when the response message is received from the second media object.
제1항에 있어서, 상기 명령 처리 모듈은 동일 기능을 수행하는 다른 제1 미디어 사물로부터 연결 가능 여부를 묻는 메시지가 수신되면, 상기 연결 가능 여부를 묻는 메시지에 대한 응답 메시지를 생성하고, 상기 다른 제1 미디어 사물로부터 메타데이터 - 상기 제1 미디어 사물이 관심 개체를 촬영한 데이터로부터 추출된 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 가 수신되면, 상기 다른 제1 미디어 사물과 연결되었던 다른 제2 미디어 사물에 대한 연결 가능 여부를 묻는 메시지를 생성하며,
상기 통신 처리 모듈은 상기 다른 제1 미디어 사물로부터 상기 연결 가능 여부를 묻는 메시지와 메타데이터를 수신하고, 상기 다른 제2 미디어 사물에 대한 연결 가능 여부를 묻는 메시지를 상기 다른 제2 미디어 사물로 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
2. The method of claim 1, wherein the command processing module generates a response message for a message inquiring whether or not the connection is possible when a message inquiring whether connection is possible is received from another first media object performing the same function, 1 metadata from a media object; information about an object of interest based on the contour and the contour of the object of interest extracted from the data of the object of interest taken by the first media object; motion orbit information of the object of interest; The method comprising the steps of: generating a message asking whether or not a connection to a second media object, which has been connected to the other first media object, is possible, if the second media object includes at least one of information about a media location,
Wherein the communication processing module receives a message and metadata requesting the connection from the other first media object and transmits a message to the other second media object to inquire whether the second media object is connectable or not The MIoT-based media object.
미디어 중심 사물 인터넷(Media-centric Internet of Things;MIoT) 기반의 미디어 사물(Media Thing, MThing)의 동작 방법에 있어서,
사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 단계; 및
상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 단계를 포함하되,
상기 미디어 사물은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결되는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
A method of operating a Media Thing (MThing) based Media-centric Internet of Things (MIoT)
Generating a control command or message according to the task assigned by the user; And
Transmitting the control command and the message to another media object,
Wherein the media objects are communicatively coupled to the other media objects in accordance with the assigned tasks without being controlled by the user.
제15항에 있어서, 상기 명령어 도는 상기 메시지는 상기 미디어 사물의 메타데이터 또는 다른 미디어 사물의 메타데이터의 분석에 따라 생성되되,
상기 메타데이터는 해당 미디어 사물의 셋업 정보, 성질 또는 성능에 대한 정보를 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15, wherein the command or message is generated according to an analysis of metadata of the media object or metadata of another media object,
Wherein the metadata includes information about setup information, properties, or performance of a media object.
제15항에 있어서, 상기 미디어 사물은 네트워크에 새롭게 추가된 미디어 사물이되,
자신의 메타데이터를 네트워크 기 존재하는 다른 미디어 사물로 브로드캐스팅하는 단계;
상기 기 존재하는 다른 미디어 사물로부터 상기 다른 미디어 사물의 메타데이터를 수신하는 단계; 및
상기 수신된 다른 미디어 사물의 메타데이터를 수신하여 저장하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
The method of claim 15, wherein the media object is a media object newly added to the network,
Broadcasting its meta data to another media object existing on the network;
Receiving metadata of the other media objects from other media objects existing thereon; And
And receiving and storing the metadata of the received other media objects. ≪ Desc / Clms Page number 21 >
제15항에 있어서,
새롭게 추가된 다른 미디어 사물로부터 메타데이터를 수신하여 저장하는 단계;
상기 새롭게 추가된 미디어 사물로 자신의 메타데이터를 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15,
Receiving and storing metadata from a newly added media object;
And transmitting the meta data to the newly added media object based on the meta data.
제15항에 있어서,
상기 부여된 임무를 포함하는 메타데이터를 분석하고 분석 결과에 기반하여 하나 이상의 다른 미디어 사물을 검색 및 선택하는 단계;
상기 선택된 다른 미디어 사물 중 제1 다른 미디어 사물로 연결 요청 메시지(이하, '제1 연결 요청 메시지'라 칭함)를 전송하는 단계;
상기 다른 제1 미디어 사물로부터 상기 제1 연결 요청 메시지에 대한 응답을 수신하는 단계;
데이터를 전송하기 위한 스트리밍 URL을 생성하고, 상기 생성된 URL을 상기 다른 제1 미디어 사물로 전송하는 단계;
상기 스트리밍 URL로 데이터를 전송하는 단계;
상기 선택된 미디어 사물 중 다른 제2 미디어 사물로 연결 요청 메시지(이하, '제2 연결 요청 메시지'라 칭함)를 전송하는 단계;
상기 다른 제2 미디어 사물로부터 상기 제2 연결 요청 메시지에 대한 응답을 수신하는 단계;
데이터를 전송하기 위한 스트리밍 URL을 생성하고, 상기 생성된 URL을 상기 다른 제2 미디어 사물로 전송하는 단계; 및
상기 스트리밍 URL로 데이터를 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15,
Analyzing the metadata including the assigned task and searching and selecting one or more other media objects based on the analysis results;
Transmitting a connection request message (hereinafter, referred to as 'first connection request message') to a first other media object among the selected media objects;
Receiving a response to the first connection request message from the other first media object;
Generating a streaming URL for transmitting data, and transmitting the generated URL to the other first media object;
Transmitting data to the streaming URL;
Transmitting a connection request message (hereinafter, referred to as 'second connection request message') to a second media object of the selected media objects;
Receiving a response to the second connection request message from the second different media object;
Generating a streaming URL for transmitting data, and transmitting the generated URL to the other second media object; And
Further comprising: transmitting data to the streaming URL. ≪ RTI ID = 0.0 > 11. < / RTI >
제15항에 있어서,
다른 미디어 사물로부터 연결 요청 메시지를 수신하는 단계;
상기 수신된 연결 요청 메시지에 대한 응답을 상기 다른 미디어 사물로 전송하는 단계;
상기 다른 미디어 사물로부터 전송된 스트리밍 URL을 이용하여 접속하는 단계; 및
상기 다른 미디어 사물로부터 상기 스트리밍 URL을 통하여 데이터를 수신하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15,
Receiving a connection request message from another media object;
Transmitting a response to the received connection request message to the other media object;
Connecting using a streaming URL transmitted from the other media object; And
And receiving data from the other media object via the streaming URL. ≪ Desc / Clms Page number 13 >
제15항에 있어서,
하나 이상의 다른 제 2 미디어 사물에 대한 메타데이터를 이용하여 우선 순위에 따라 사용 가능한 하나의 다른 제 2 미디어 사물을 선택하는 단계;
상기 선택된 다른 제 2 미디어 사물로 연결 요청 메시지를 전송하는 단계;
상기 다른 제 2미디어 사물로부터 상기 연결 요청 메시지에 대한 응답 메시지를 수신하는 단계; 및
상기 다른 제1 미디어 사물의 연결 요청 메시지에 대한 응답 메시지와 상기 다른 제2 미디어 사물의 식별자 또는 URL을 상기 다른 제1 미디어 사물로 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15,
Selecting one different second media object that is usable according to priorities using metadata for one or more other second media objects;
Transmitting a connection request message to another selected second media object;
Receiving a response message for the connection request message from the second different media object; And
Further comprising the step of transmitting a response message to the connection request message of the other first media object and an identifier or URL of the second different media object to the different first media object, Way.
제15항에 있어서,
상기 다른 미디어 사물로부터 전송된 데이터로부터 추출된 정보를 포함하는 메타데이터를 생성하고, 상기 생성된 메타데이터를 미리 정해진 포맷으로 변환하는 단계; 및
상기 변환된 포맷의 메타데이터를 또 다른 미디어 사물로 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15,
Generating metadata including information extracted from data transmitted from the other media object, and converting the generated metadata into a predetermined format; And
And transmitting metadata of the converted format to another media object. ≪ RTI ID = 0.0 > 11. < / RTI >
제15항에 있어서,
상기 다른 미디어 사물의 임무를 수행 가능 여부를 판단하고 상기 다른 미디어 사물이 상기 임무를 수행할 수 없는 경우라고 판단되면, 임무 중지 메시지와 상기 다른 미디어 사물이 촬영한 관심 개체에 대한 데이터로부터 추출된 메타데이터 - 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 를 상기 다른 미디어 사물로 전송하는 단계;
상기 임무의 대체가 가능한 또 다른 미디어 사물로부터 연결 요청 메시지를 수신하는 단계;
상기 수신된 연결 요청 메시지에 따라 응답 메시지를 상기 또 다른 미디어 사물로 전송하는 단계; 및
상기 또 다른 미디어 사물과 연결하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15,
If it is determined that the other media object can not perform the mission, the mission stop message and the metadata extracted from the data of the interested object photographed by the other media object, Data includes at least one of information about an object of interest based on the appearance of the object of interest and the contour, motion orbit information of the object of interest, and information about a media location of the object of interest in the data To another media object;
Receiving a connection request message from another media object capable of replacing the mission;
Transmitting a response message to the another media object according to the received connection request message; And
Further comprising the step of: associating the media object with another media object.
제15항에 있어서,
상기 다른 미디어 사물이 임무를 수행하지 못하는 경우 상기 다른 미디어 사물로부터 제 1 연결 요청 메시지를 수신하는 단계;
상기 제 1 연결 요청 메시지에 대한 응답 메시지를 상기 다른 미디어 사물로 전송하는 단계;
또 다른 미디어 사물로 제 2 연결 요청 메시지를 전송하는 단계; 및
상기 또 다른 미디어 사물과 연결하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
16. The method of claim 15,
Receiving a first connection request message from the other media object if the other media object fails to perform the task;
Transmitting a response message to the first connection request message to the other media object;
Transmitting a second connection request message to another media object; And
Further comprising the step of: associating the media object with another media object.
KR1020160103675A 2015-10-16 2016-08-16 Media things based on media centric internet of things and method of operating the same KR20170045102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/011106 WO2017065443A1 (en) 2015-10-16 2016-10-05 Media-centered internet of things-based media thing and operation method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150144796 2015-10-16
KR20150144796 2015-10-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190014473A Division KR20190015456A (en) 2015-10-16 2019-02-07 Media things based on media centric internet of things and method of operating the same

Publications (1)

Publication Number Publication Date
KR20170045102A true KR20170045102A (en) 2017-04-26

Family

ID=58705002

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160103675A KR20170045102A (en) 2015-10-16 2016-08-16 Media things based on media centric internet of things and method of operating the same
KR1020190014473A KR20190015456A (en) 2015-10-16 2019-02-07 Media things based on media centric internet of things and method of operating the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020190014473A KR20190015456A (en) 2015-10-16 2019-02-07 Media things based on media centric internet of things and method of operating the same

Country Status (1)

Country Link
KR (2) KR20170045102A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019199118A1 (en) * 2018-04-12 2019-10-17 명지대학교 산학협력단 Internet of media things transaction system and method therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472893B1 (en) * 2020-10-08 2022-11-30 명지대학교 산학협력단 A system for performing the mission of Media Things (MThings) using a mission diagram in the Internet of Media Things (IoMT), a method therefor, and a computer-readable recording medium in which a program that performs this method is recorded

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019199118A1 (en) * 2018-04-12 2019-10-17 명지대학교 산학협력단 Internet of media things transaction system and method therefor

Also Published As

Publication number Publication date
KR20190015456A (en) 2019-02-13

Similar Documents

Publication Publication Date Title
US20220270512A1 (en) Augmented Reality Panorama Systems and Methods
US9895802B1 (en) Projection of interactive map data
CN104102335B (en) A kind of gestural control method, device and system
KR101635068B1 (en) Home network system and method using robot
KR20190108119A (en) Localization Decisions for Mixed Reality Systems
JP6419201B2 (en) Method and apparatus for video playback
US9792488B2 (en) Adjacent person specifying apparatus, adjacent person specifying method, adjacent person specifying program, and adjacent person specifying system
US20140006513A1 (en) Adjacent person specifying apparatus, adjacent person specifying method, adjacent person specifying program, and adjacent person specifying system
CN104813642A (en) Methods, apparatuses and computer readable medium for triggering a gesture recognition mode and device pairing and sharing via non-touch gestures
JPWO2015136796A1 (en) Information processing apparatus, storage medium, and control method
CN105610700A (en) Group creating method and apparatus and electronic device
JP2018137575A (en) Control device and method
CN104866084A (en) Methods, device and system for gesture recognition
KR20190015456A (en) Media things based on media centric internet of things and method of operating the same
CN105100711A (en) Information-transmitting method and device
WO2014183700A1 (en) M2m-based information processing method and m2m service platform
US20210170600A1 (en) Home robot and security monitoring system for smart home by interworking home device
JP2017033413A (en) Robot photographing system and image management method
CN103907333A (en) A system for dynamic service collaboration through identification and context of plurality of heterogeneous devices
KR20190068847A (en) METHOD AND SYSTEM FOR PROVIDING IoT APPLICATION SERVICE BASED ON DEVICE KNOWLEDGE SHARING BETWEEN DEVICES
WO2017026154A1 (en) Information processing device, information processing method, and program
JP2002120184A (en) Robot operation control system on network
EP2699022A1 (en) Method for provisioning a person with information associated with an event
US20120096476A1 (en) Virtual event channel configuration method through combination of event channels and event management apparatus using the method
Kristiana et al. UUID Beacon Advertisements For Lecture Schedule Information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
A107 Divisional application of patent
AMND Amendment