WO2017065443A1 - 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법 - Google Patents

미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법 Download PDF

Info

Publication number
WO2017065443A1
WO2017065443A1 PCT/KR2016/011106 KR2016011106W WO2017065443A1 WO 2017065443 A1 WO2017065443 A1 WO 2017065443A1 KR 2016011106 W KR2016011106 W KR 2016011106W WO 2017065443 A1 WO2017065443 A1 WO 2017065443A1
Authority
WO
WIPO (PCT)
Prior art keywords
media
thing
media thing
processing module
message
Prior art date
Application number
PCT/KR2016/011106
Other languages
English (en)
French (fr)
Inventor
김상균
Original Assignee
명지대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160103675A external-priority patent/KR20170045102A/ko
Application filed by 명지대학교 산학협력단 filed Critical 명지대학교 산학협력단
Publication of WO2017065443A1 publication Critical patent/WO2017065443A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region

Definitions

  • the present invention relates to a media-centric IoT-based media thing and a method of operating the same.
  • the entire network including things, things (such as sensors and drivers), users and things, and data exchanged between things (such as sensor data and control commands)
  • things such as sensors and drivers
  • data exchanged between things such as sensor data and control commands
  • the present invention is to solve the above-mentioned problems of the prior art, and to provide a technique for connecting media objects and performing a task assigned by a user based on a media-centric IoT.
  • an object of the present invention is to provide a method of detecting and tracking an object of interest using a media-centric IoT-based media.
  • a MIoT-based media object includes a command processing module for generating a control command or a message according to a task assigned by a user; And a communication processing module for transmitting one or more of the control command and the message to another media thing.
  • the communication processing module communicates with and communicates with the other media objects according to the assigned task without the user's control.
  • MIoT-based media thing operation method comprises the steps of generating a control command or a message according to the task assigned by the user; And transmitting at least one of the control command and the message to another media thing.
  • the media thing communicates with and communicates with the other media thing according to the assigned task without the user's control.
  • media-centric IoT-based media objects can be connected and efficiently performed.
  • FIG. 1 is a diagram illustrating a configuration of a media-centric IoT based object detection and tracking system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an object detection and tracking system according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating the data exchange of the object detection and tracking system according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a connection between media objects in an object sensing and tracking system according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a connection between media objects in an object sensing and tracking system according to another exemplary embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a person detection and tracking of the object detection and tracking system according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a person detection and tracking of the object detection and tracking system according to another embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a configuration of a media-centric IoT based object detection and tracking system according to an embodiment of the present invention.
  • An object detection and tracking system (hereinafter referred to as an object detection and tracking system) based on a media-centric Internet of Things (MIoT) according to an embodiment of the present invention is an object of interest.
  • Entity 100 and a plurality of media things (hereinafter referred to as "MThing") 200 may be included.
  • MIoT is a representation of information related to all interfaces, protocols, and media that enables advanced (or intelligent) services and applications based on the interaction between devices and people in the real and virtual worlds.
  • information representations it can include the overall product, system and service that collects and analyzes the media and uses the results to control each thing.
  • the object of interest 100 may include a physical object and a virtual object, and may be detected or controlled by the MThing 200. It can be a target.
  • the MThing 200 may include a function of detecting or controlling the object of interest 100 as objects that can communicate with another thing (including MThing), and the audio of the object of interest 100 may be included. And one or more of video.
  • an interface for MIoT is an interface between a user and the MThing 200 (hereinafter, referred to as a “first interface”), a sensor, a controller, and a processor included in the MThing 200. It may be divided into an interface (hereinafter, referred to as a 'second interface') and an interface between the MThing 200 (hereinafter, referred to as a 'third interface').
  • the first interface may be an interface between the user and the MThing 200 and may include set-up information for controlling the MThing 200.
  • the 'user' may include a content designer of an IoT service or a product
  • the 'setup information' may include a command that is performed when setting a characteristic parameter of the MThing 200 or when the MThing 200 meets a predetermined condition. have.
  • a 'first' interface there may exist an interface for transmitting and receiving user setup information defined in the first interface between the MThings 200 and hereinafter referred to as a 'first' interface.
  • the second interface is an interface for processing sensor data and actuation data generated from a sensor or actuator included in the MThing 200.
  • 'sensor data' includes not only data sensed from the sensor (eg, video data) but also high level sensor data (eg, face descriptor, fingerprint descriptor, medical diagnosis name, etc.) obtained by processing the data. can do.
  • high level sensor data eg, face descriptor, fingerprint descriptor, medical diagnosis name, etc.
  • the 'actuation data' refers to the information of the object of interest (for example, used when using the object of interest 100 detected by one MThing 200 as content in another MThing 200 (eg, a display monitor).
  • BIFS Binary Format for Scene
  • 'second' interface there may exist an interface when data of the second interface is converted into a format for transmission between the MThings 200, hereinafter referred to as 'second' interface.
  • the 'third interface' is an interface for defining the search, performance, characteristics, and the like of the MThing 200, and may include the first and second interfaces.
  • the object detection and tracking system shown in FIG. 1 when the object of interest 100 is a person and the MThing 200 includes a camera, a tracker and storage,
  • the camera can detect moving people in the field of view and track the detected person to capture audio and video, and the tracking device recognizes the person in the captured video, and the person's information and movements (the appearance of the recognized person) Motion orbits) and information about the media location at which the recognized person appears in the media and can be extracted and stored along with the audio and video data captured by the camera.
  • an object sensing and tracking system is taken as an example, but may include all systems using the above interfaces. However, for convenience of explanation, it is assumed that the object detection and tracking system will be described in detail.
  • the object of interest 100 is a person and the MThing 200 includes a camera, a tracker, and storage, the exchange of information between the MThings 200 will be described in detail. .
  • FIG. 2 is a diagram illustrating an object detection and tracking system according to an embodiment of the present invention.
  • the MThing 200 of the object sensing and tracking system may include a camera 210, a tracking device 220, and a storage 230.
  • the MThings 200 illustrated in FIG. 2 may be objects located in an area covered by the same access point.
  • the user illustrated in FIG. 2 may assign a task such as setup information to the MThing 200.
  • the user may assign a task such as setup information to the MThing 200 as a kind of MThing 200, but may be included in the person who is the object of interest 100 when the object is detected and tracked by the MThing 200. It may be.
  • the camera 210 may include a capturing module 211, a command processing module 212, and a communication processing module 213.
  • the capture module 211 may photograph a person who is the object of interest 100, and may capture one or more of video and audio data according to the photographing.
  • the command processing module 212 may analyze metadata including information on setup information, properties or performance of the MThing 200, and generate metadata including corresponding control commands, messages, and the like.
  • the communication processing module 213 may communicate with another MThing 200.
  • the communication method of the communication processing module 213 may include all methods of wired and wireless.
  • the tracking device 220 may include a sensed data processing module 221, a command processing module 222, and a communication processing module 223. have.
  • the detected data processing module 221 may analyze one or more of the video and audio data captured by the camera 210, and generate one or more of a descriptor and a description as a result of the analysis. have.
  • the command processing module 222 may analyze metadata including setup information, properties or performance information of the MThing 200, and generate metadata including corresponding control commands, messages, and the like.
  • the communication processing module 223 may communicate with another MThing 200.
  • the communication method of the communication processing module 223 may include all methods of wired and wireless.
  • the storage 230 may include a storage processing module 231, a command processing module 232, and a communication processing module 233.
  • the storage processing module 231 may perform storage processing of data requested by the tracking device 220.
  • the command processing module 232 may analyze metadata including information on setup information, properties or performance of the MThing 200, and generate metadata including control commands, messages, and the like corresponding thereto.
  • the communication processing module 233 may communicate with another MThing 200.
  • the communication method of the communication processing module 233 may include all methods of wired and wireless.
  • the object detection and tracking system is taken as an example, but any operation system in which the MThing 200 is used may be applied to the above method.
  • the MThing 200 may be assigned by a user to process an operation related to the mission. Are interconnected.
  • the MThing 200 basically includes a command processing module and a communication module. Unlike devices such as a conventional server, the MThing 200 determines itself and processes a task. Send and receive).
  • FIG. 3 is a diagram illustrating the data exchange of the object detection and tracking system according to an embodiment of the present invention.
  • FIG. 3 illustrates a case in which a new MThing 300 is added to an object detection and tracking system, and a process of exchanging data in a network between an existing MThing 200 and a newly added MThing 300.
  • the added camera 300 uses the network to perform MThing information, that is, its setup information, Information about the property or the performance may be broadcasted to another (existing) MThing 200 existing in the network (S301).
  • MThing information that is, its setup information
  • Information about the property or the performance may be broadcasted to another (existing) MThing 200 existing in the network (S301).
  • the existing MThings 200 store the broadcasted MThing information of the added camera 300 (S302) and add their own MThing information, that is, information about their setup information, properties or performances. In operation S303, it may be transmitted to 300.
  • the added camera 300 may store MThing information received from the existing MThings 200 (S304).
  • S301 and S303 may be performed through the third interface mentioned in FIG. 1.
  • the above process is performed in the process of registering the MThing with the MIoT system.
  • the newly added MThing broadcasts its own information to other existing MThings, and the other MThings are added to the broadcasting information. Send your own information to the newly added MThing.
  • all MThings contain all of each other's information.
  • the MThing retrieves a list of other MThings that it has and connects with the MThing most suitable for performing the task.
  • FIG. 4 is a diagram illustrating a connection between MThings of an object sensing and tracking system according to an embodiment of the present invention.
  • FIG. 4 is a case where a task is given to the added camera 300 in FIG. 3, and the added camera 300 searches for the surrounding MThings 200 required for performing the task.
  • the added camera 300 is tracked.
  • the connection process between device 220 and reservoir 230 is shown.
  • a user may set a mission including a command such as setup information to the added camera 300 (S401), and the added camera 300 analyzes the set mission to perform the surrounding MThing 200 required for performing the mission. ) (The tracking device 220 and the storage 230) can be searched (S402).
  • the added camera 300 transmits a connection request message to check whether the connection is possible to the searched storage 230 (S403), and the storage 230 responds to the received connection request message (Yes or No, hereinafter). A case of 'Yes' will be described) and may be transmitted to the added camera 300 (S404).
  • the connection of the added camera 300 and the reservoir 230 is established.
  • the added camera 300 generates an audio / video (hereinafter referred to as 'A / V') streaming URL, and transmits the generated URL to the connected storage 230 (S405).
  • 'A / V' an audio / video
  • the storage 230 may access the A / V streaming URL received from the added camera 300 (S406).
  • the added camera 300 transmits the A / V data through the A / V streaming URL (S407), and the storage 230 may receive and store the A / V data through the connected A / V streaming URL. There is (S408).
  • the added camera 300 transmits a connection request message confirming whether the connection is possible to the tracking device 220 found in S402 (S409).
  • the tracking device 220 may transmit a response (Yes or No, hereinafter, 'Yes') in response to the connection request message received from the added camera 300 to the added camera 300.
  • the ID (URL) of the connected storage may be returned as a message (S410).
  • the connection of the added camera 300 and the tracking device 220 is established.
  • the added camera 300 generates an A / V streaming URL, and transmits the generated URL to the connected storage 230 (S411).
  • the tracking device 220 accesses the A / V streaming URL received from the added camera 300 (S412), and the added camera 300 may transmit the A / V data through the A / V streaming URL. There is (S413).
  • the S401 may be performed through the first interface mentioned in FIG. 1, and the S407 and S413 may be performed through the second 'interface.
  • the S405, S410, and S411 may be performed through a third interface.
  • the process of this embodiment starts when the task is given from the user in the state in which the MThings store information with each other in the process of FIG.
  • the tasked MThing sends a message to determine whether the MThings that are currently required are available or powered off, and sends a message to determine whether they can be connected.
  • MThings perform their tasks by communicating with each other to match the tasks assigned to them.
  • the sensing and tracking process is taken as an example, but the above process may be applied to other tasks.
  • a user may assign a task to sound an alarm by detecting rough breath on the microphone.
  • the user assigns a task to the microphone, and the microphone finds an audio analyzer and an alarm required for the task, and asks and answers whether the microphone can be connected to create a task environment.
  • the microphone detects sound and transmits audio data to the audio analyzer, and the audio analyzer detects coarse breath through the received audio data.
  • the Audio Analyzer detects a rough breath, it can send a message to the Alarm to indicate that the Alarm is active and in an emergency situation.
  • FIG. 5 is a diagram illustrating a connection between MThings of an object sensing and tracking system according to another exemplary embodiment of the present invention.
  • FIG. 5 is similar to the case of FIG. 4, but uses a different reservoir 230 (hereinafter referred to as 'second reservoir') 230 than that of FIG. 4 (hereinafter referred to as 'first reservoir') 230. to be.
  • 'second reservoir' a different reservoir 230
  • 'first reservoir' a different reservoir 230
  • the added camera 300 transmits a connection request message confirming whether the connection is possible to the tracking device 220 (S501).
  • the tracking device 220 may select an available storage using the storage information of the priority (S502).
  • the tracking device 220 transmits a connection request message confirming whether the connection is possible to the second storage 230 'selected in S502 (S503), and the second storage 230' connects to the tracking device 220.
  • the request message Yes or No, hereinafter 'Yes' will be described
  • transmits S504
  • the tracking device 220 may transmit a response (Yes or No, hereinafter, 'Yes') in response to the connection request message received from the added camera 300 to the added camera 300.
  • the ID (URL) of the connected storage may be returned as a message (S505).
  • the added camera 300 generates an A / V streaming URL and transmits the generated URL to the connected second storage 230 '(S506).
  • the tracking device 220 accesses the A / V streaming URL received from the added camera 300 (S507), and the added camera 300 may transmit the A / V data through the A / V streaming URL. There is (S508).
  • the S505 and S506 may be performed through the third interface mentioned in FIG. 1, and the S508 may be performed through the 2 ′ interface.
  • the object detection and tracking process is taken as an example, but according to a user's assignment, the first MThing requests a connection to the second MThing, the second MThing finds and connects to the third MThing necessary for the expectant mother, and connects the third MThing. It can be extended to various examples as long as it connects to the first MThing.
  • FIG. 6 is a diagram illustrating a person detection and tracking of the object detection and tracking system according to an embodiment of the present invention.
  • FIG. 6 illustrates a case in which the camera 210 performs a task of detecting and tracking a person.
  • the camera 210 transmits the captured A / V data to the tracking device 220 (S601).
  • the tracking device 220 may recognize a person from the video data transmitted from the camera 210 and extract a feature point for tracking the recognized person.
  • the tracking device 220 recognizes a person in the captured video, character information based on the recognized person's appearance (appearance), a moving line (movement trajectory), and a time point at which the recognized person appears in the media. Information about may be extracted (S602).
  • the tracking device 220 generates metadata including information on the extracted person information, a moving line (movement trajectory), and a time point when the recognized person appears in the media (S603), and generates the generated metadata. Converted to a standardized format and transmitted to the storage 230 (S604).
  • the storage 230 may store metadata received from the tracking device 220 (S605).
  • the S601 and S604 may be performed through the 2 'interface mentioned in FIG.
  • the method of the present embodiment may generate metadata including information transmitted from another MThing, and store the generated metadata in itself or another MThing.
  • this method is not limited to the sensing and tracking process and can be applied to many tasks.
  • any media information or MThing information is defined as metadata, and in the case of a simple message, it can be communicated through simple messaging.
  • FIG. 7 is a diagram illustrating a person detection and tracking of the object detection and tracking system according to another embodiment of the present invention.
  • FIG. 7 illustrates that when the first camera 210 performing the task in FIG. 6 is no longer able to perform the task, that is, when the detected person is out of the field of view, the first camera 210 may perform the task. Searching for another camera 300 to continue the mission, and the second camera 300 is an additional camera that inherits the task is connected to search for the MThings to perform the mission with them.
  • the tracking device 220 transmits a message to stop the task to the first camera 210, wherein the person information, movement (movement trajectory) and the recognized person by the person's appearance (appearance) in the media
  • metadata including information about a media location appearing at the same time may be transmitted together.
  • the first camera 210 searches for the second camera 300 that will continue its task and transmits a connection request message for checking whether the second camera 300 can be connected (S702).
  • the second camera 300 transmits a response (Yes or No, hereinafter, 'Yes') to the first camera 210 in response to the connection request message of the first camera 210 (S703).
  • the first camera 210 and the second camera 300 may be connected.
  • the first camera 210 transmits the metadata received from the tracking device 220 to the second camera 300 in S701 (S704).
  • the connection between the first camera 210 and the second camera 300 is terminated.
  • the second camera 300 transmits a connection request message for checking whether the second device 300 is connectable (S705), and the tracking device 220 responds to the connection request message of the second camera 300. (Yes or No) is transmitted to the second camera 300 (S706), the second camera 300 and the tracking device 220 may be connected.
  • the second camera 300 transmits a connection request message confirming whether the connection is possible to the storage 230 (S707), and the storage 230 responds to the connection request message of the second camera 300 (Yes). or No, hereinafter, a case of 'Yes') is transmitted to the second camera 300 (S708), so that the second camera 300 and the storage 230 may be connected.
  • the method of the present embodiment finds a third MThing in which the second MThing is to perform the task and transmits metadata to the third MThing when the second MThing connected to the first MThing becomes unable to perform the task. do.
  • the first MThing and the third MThing can be connected, and the third MThing performs the task on behalf of the second MThing while communicating with the first MThing.
  • detection and tracking are taken as examples, but the present invention is not limited thereto.
  • the camera delivers video information to the face recognizer, which recognizes the face and emits the person's favorite fragrance and sings a favorite song. You can get out.
  • the camera in the living room can no longer take pictures of the person, so they can send a message to the camera in the bathroom to do the job. May carry on the mission.
  • the Scent shooter or Audio player delivers the mission to the Scent shooter and Audio player in the bathroom, and they are out of mission.
  • face recognizer it is possible to use the same face recognizer as it can perform the task regardless of the position.
  • each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
  • the vibration detecting device according to the present invention can be easily applied to various fields requiring vibration detection, and can be used at low cost disposable or semi-permanently.
  • the vibration detection device can be applied to various fields such as biological signal measurement, motion detection, collapse prediction, landslide prediction, living noise measurement in construction and civil engineering fields, and a small and light sensor that is easy to use with high sensitivity. Can produce and supply at low cost.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법이 개시된다. 상기 미디어 사물은 사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 명령 처리 모듈 및 상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 통신 처리 모듈을 포함한다. 여기서, 상기 통신 처리 모듈은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결한다.

Description

미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법
본 발명은 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법에 관한 것이다.
근래 사물 인터넷(Internet of Things)을 이용한 제품, 시스템 및 서비스에 대한 산업계나 학계의 관심이 높다.
따라서, 사물간 연결을 통한 가치 있는 서비스 제공을 위해서는 사물 간의 네트워크, 사물(예: 센서, 구동기), 사용자와 사물, 사물과 사물 간 주고 받는 데이터(예: 센서 데이터, 제어 명령) 등의 전체를 아우를 수 있는 표준의 필요성이 높아지고 있다.
현재 ISO, ITU, IEEE, IETF, oneM2M, OMA와 같은 공적/사적 국제 기구를 중심으로 사물 인터넷의 표준화를 진행하고 있으나, 대부분 사물과 사물을 연결하는 네트워크 프로토콜이나 사물의 고유 식별자(identifier)에 대한 표준화에 중점을 두고 있다.
사물 인터넷 표준화에 간과해서는 안 되는 중요한 점은 바로 기존 인터넷 상에서 가장 많이 교환되는 데이터가 미디어 콘텐츠(비디오, 오디오, 사진 등)였듯이, 사물 인터넷 환경에서 가장 많이 교환될 데이터 역시 미디어 콘텐츠라는 점이다.
따라서 미디어 중심의 시각에서 사물 인터넷 시스템 및 서비스에 대한 고려와 이를 구성하는 인터페이스의 표준의 제정이 시급한 상황이다.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 미디어 중심 사물 인터넷 기반으로 미디어 사물들을 연결하고 사용자에 의해 부여된 임무를 수행하는 기술을 제공하고자 한다.
예를 들어, 미디어 중심 사물 인터넷 기반의 미디어 사물을 이용하여 관심 개체를 감지하고 추적하는 방안을 제공하고자 한다.
상기와 같은 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 MIoT 기반의 미디어 사물은 사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 명령 처리 모듈; 및 상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 통신 처리 모듈을 포함한다. 여기서, 상기 통신 처리 모듈은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결한다.
본 발명의 일 실시예에 따른 MIoT 기반의 미디어 사물 동작 방법은 사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 단계; 및 상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 단계를 포함한다. 여기서, 상기 미디어 사물은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결된다.
본 발명의 일 실시예에 따르면, 미디어 중심 사물 인터넷 기반의 미디어 사물들을 연결시키고 효율적으로 임무를 수행할 수 있다.
도 1은 본 발명의 일 실시예에 따른 미디어 중심 사물 인터넷 기반의 개체 감지 및 추적 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 데이터 교환을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 미디어 사물간 연결을 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 미디어 사물간 연결을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다.
또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 구비할 수 있다는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 미디어 중심 사물 인터넷 기반의 개체 감지 및 추적 시스템의 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 미디어 중심 사물 인터넷(Media-centric Internet of Things, 이하 'MIoT'라 칭함) 기반의 개체 감지 및 추적 시스템(이하, '개체 감지 및 추적 시스템'이라 칭함)은 관심 개체(Entity)(100) 및 복수의 미디어 사물(Media Thing)(이하, 'MThing'이라 칭함)(200)을 포함할 수 있다.
참고로, MIoT는 현실 세계와 가상 세계 내 기기와 사람간, 기기와 기기간의 상호 작용에 기초한 진보된(또는 지능화된) 서비스 및 응용을 가능하게 하는 모든 인터페이스, 프로토콜 및 미디어와 관련된 정보 표현(media-related information representation)의 조합으로서, 미디어를 수집하고 분석하여 그 결과를 활용해 각 사물들을 제어하는 총체적인 제품, 시스템 및 서비스를 포함할 수 있다.
개체 감지 및 추적 시스템의 각 구성 요소를 간략히 설명하면, 관심 개체(100)는 물리적 개체(Physical Object)와 가상의 개체(Virtual Object)를 포함할 수 있으며, MThing(200)에 의해 감지되거나 제어될 수 있는 대상이다.
한편, MThing(200)은 다른 사물(Thing)(MThing을 포함함)과 통신할 수 있는 사물들로서 관심 개체(100)를 감지하거나 제어하는 기능을 포함할 수 있으며, 관심 개체(100)에 대한 오디오 및 비디오 중 하나 이상을 감지하거나 제어할 수 있다.
참고로, MIoT를 위한 인터페이스는 도 1에 도시된 바와 같이 사용자(user)와 MThing(200)의 인터페이스(이하, '제 1 인터페이스'라 칭함), MThing(200)에 포함된 센서, 제어기, 프로세서간의 인터페이스(이하, '제 2 인터페이스'라 칭함) 및 MThing(200)간 인터페이스(이하, '제3 인터페이스'라 칭함)로 구분될 수 있다.
'제 1 인터페이스'는 사용자(user)와 MThing(200) 사이의 인터페이스로서, MThing(200)을 제어하는 셋업 정보(set-up information)를 포함할 수 있다.
여기서 '사용자'는 사물 인터넷 서비스나 제품의 콘텐츠 디자이너를 포함할 수 있으며, '셋업 정보'는 MThing(200)의 특성 파라미터 셋업이나 MThing(200)이 일정한 조건을 만났을 때 수행하는 명령어를 포함할 수 있다.
참고로, 제 1 인터페이스에서 정해진 사용자 셋업 정보를 MThing(200) 사이에서 송수신하는 인터페이스가 존재할 수 있으며, 이하에서는 이를 '제 1' 인터페이스'라 칭하도록 한다.
'제 2 인터페이스'는 MThing(200)에 포함된 센서나 액추에이터로부터 생성되는 센서 데이터, 액추에이션 데이터를 처리하기 위한 인터페이스이다.
여기서 '센서 데이터'는 센서로부터 감지되는 데이터(예를 들어, 비디오 데이터)뿐만 아니라, 해당 데이터를 처리하여 획득하는 높은 수준의 센서 데이터(예를 들어 얼굴 서술자, 지문 서술자, 의료 진단명 등)를 포함할 수 있다.
그리고 '액추에이션 데이터'는 하나의 MThing(200)에서 감지된 관심 개체(100)를 다른 MThing(200)(예를 들어, 디스플레이 모니터)에서 콘텐츠로 활용할 때 사용되는 관심 개체의 정보(예를 들어, Binary Format for Scene;BIFS)를 포함할 수 있다.
참고로, 제 2 인터페이스의 데이터가 MThing(200) 사이의 전송을 위한 포맷으로 변환되는 경우의 인터페이스가 존재할 수 있으며, 이하에서는 이를 '제 2' 인터페이스'라 칭하도록 한다.
'제3 인터페이스'는 MThing(200)의 검색과 성능, 특성 등을 정의하기 위한 인터페이스로서, 상기 제 1' 인터페이스와 제 2' 인터페이스를 포함할 수 있다.
도 1에 도시된 개체 감지 및 추적 시스템의 일 실시예로서, 관심 개체(100)가 사람이고, MThing(200)이 카메라(camera), 추적 장치(tracker) 및 저장소(storage)를 포함하는 경우, 카메라는 시야에서 움직이는 사람을 감지하고 감지된 사람을 추적하여 오디오와 비디오를 캡쳐할 수 있으며, 추적 장치는 캡쳐된 비디오에서 사람을 인식하고 인식된 사람의 모습(외모)에 의한 인물 정보, 동선(움직임 궤도) 및 인식된 사람이 미디어 내에서 등장하는 시점(media location)에 대한 정보를 추출하여 카메라에서 캡쳐한 오디오 및 비디오 데이터와 함께 저장소에 저장할 수 있다.
위에서는 미디어 중심 사물 인터넷 시스템의 일 예로서, 개체 감지 및 추적 시스템을 예로 하였으나, 위의 인터페이스들을 사용하는 모든 시스템들을 포함할 수 있다. 다만, 설명의 편의를 위하여 개체 감지 및 추적 시스템으로 가정하고 상술하겠다.
이하, 관심 개체(100)가 사람이고, MThing(200)이 카메라(camera), 추적 장치(tracker) 및 저장소(storage)를 포함하는 경우, MThing(200) 사이의 정보 교환에 대하여 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템을 도시한 도면이다.
본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 MThing(200)은 카메라(210), 추적 장치(220) 및 저장소(230)를 포함할 수 있다.
참고로, 도 2에 도시된 MThing(200)들은 동일한 액세스 포인트(Access Point)가 커버하는 영역 내에 위치하는 사물일 수 있다.
도 2에 도시된 사용자(user)는 MThing(200)에 셋업 정보와 같은 임무(task)를 부여할 수 있다.
참고로 사용자는 MThing(200)의 일종으로서MThing(200)에 셋업 정보와 같은 임무를 부여할 수도 있지만, MThing(200)에 의해 감지 및 추적의 대상이 되는 경우 관심 개체(100)인 사람에 포함될 수도 있다.
한편, 카메라(210)는 캡쳐 모듈(capturing module)(211), 명령 처리 모듈(command processing module)(212) 및 통신 처리 모듈(communication processing module)(213)을 포함할 수 있다.
여기서, 캡쳐 모듈(211)은 관심 개체(100)인 사람을 촬영할 수 있으며, 촬영에 따른 비디오 및 오디오 데이터 중 하나 이상을 캡쳐할 수 있다.
명령 처리 모듈(212)은 MThing(200)의 셋업 정보, 성질이나 성능에 대한 정보를 포함하는 메타데이터를 분석하고, 그에 대응하는 제어 명령어, 메시지 등을 포함하는 메타데이터를 생성할 수 있다.
통신 처리 모듈(213)은 다른 MThing(200)과 통신할 수 있다.
여기서 통신 처리 모듈(213)의 통신 방식은 유선과 무선의 모든 방식을 포함할 수 있다.
한편, 추적 장치(220)는 감지된 데이터 처리 모듈(sensed data processing module)(221), 명령 처리 모듈(command processing module)(222) 및 통신 처리 모듈(communication processing module)(223)을 포함할 수 있다.
여기서, 감지된 데이터 처리 모듈(221)은 카메라(210)에서 캡쳐된 비디오 및 오디오 데이터 중 하나 이상을 분석할 수 있으며, 분석 결과로서 디스크립터(descriptor) 및 디스크립션(description) 중 하나 이상을 생성할 수 있다.
명령 처리 모듈(222)은 MThing(200)의 셋업 정보, 성질이나 성능에 대한 정보를 포함하는 메타데이터를 분석하고 이에 대응하는 제어 명령어, 메시지 등을 포함하는 메타데이터를 생성할 수 있다.
통신 처리 모듈(223)은 다른 MThing(200)과 통신할 수 있다.
여기서 통신 처리 모듈(223)의 통신 방식은 유선과 무선의 모든 방식을 포함할 수 있다.
한편, 저장소(230)는 저장 처리 모듈(storage processing module)(231), 명령 처리 모듈(command processing module)(232) 및 통신 처리 모듈(communication processing module)(233)을 포함할 수 있다.
여기서, 저장 처리 모듈(231)은 추적 장치(220)에 의해 요청되는 데이터들의 저장 처리를 수행할 수 있다.
명령 처리 모듈(232)은 MThing(200)의 셋업 정보, 성질이나 성능에 대한 정보를 포함하는 메타데이터를 분석하고 이에 대응하는 제어 명령어, 메시지 등을 포함하는 메타데이터를 생성할 수 있다.
통신 처리 모듈(233)은 다른 MThing(200)과 통신할 수 있다.
여기서 통신 처리 모듈(233)의 통신 방식은 유선과 무선의 모든 방식을 포함할 수 있다.
위에서는 개체 감지 및 추적 시스템을 예로 하였으나, MThing(200)이 사용되는 어떠한 동작 시스템에도 위의 방법에 적용될 수 있으며, 특히 사용자에 의해 임무를 부여받아 임무와 관련된 동작을 처리하도록 MThing(200)들이 상호 연결된다. 특히, MThing(200)은 기본적으로 명령 처리 모듈 및 통신 모듈을 포함하고 있으며, 기존 서버 등의 장치들과 달리 자체로 판단하고 임무를 처리하며, 예를 들어 임무 수행을 위한 메시지를 다른 MThing(200)과 송수신한다.
도 3은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 데이터 교환을 도시한 도면이다.
도 3은 개체 감지 및 추적 시스템에 새로운 MThing(300)이 추가되는 경우로서, 기존의 MThing(200)과 새롭게 추가된 MThing(300)간에 네트워크 내에서 데이터를 교환하는 과정을 나타내고 있다.
새롭게 추가된 MThing이 MIoT 기반의 카메라(이하, '추가된 카메라'라 칭함)(300)인 경우를 가정하면, 추가된 카메라(300)는 네트워크를 이용하여 MThing 정보, 즉, 자신의 셋업 정보, 성질이나 성능에 대한 정보를 네트워크 내에 존재하는 다른(기존의) MThing(200)으로 브로드캐스팅(broadcasting)할 수 있다(S301).
이후, 기존의 MThing(200)들은 추가된 카메라(300)의 브로드캐스팅된 MThing 정보를 저장하고(S302), 자신의 MThing 정보, 즉, 자신의 셋업 정보, 성질이나 성능에 대한 정보를 추가된 카메라(300)로 전송할 수 있다(S303).
이후, 추가된 카메라(300)는 기존의 MThing(200)들로부터 수신된 MThing 정보를 저장할 수 있다(S304).
참고로, S301과 S303은 도 1에서 언급했던 제3 인터페이스를 통해 수행될 수 있다.
위의 과정은 MThing을 MIoT 시스템에 등록하는 과정에서 수행되는 것으로서, 새롭게 추가된MThing은 자신의 정보를 브로드캐스팅하여 기존에 존재하는 다른 MThing들에게 정보를 전송하고, 다른 MThing들은 상기 브로드캐스팅 정보에 기반하여 새롭게 추가된 MThing에 자신의 정보를 전송한다. 결과적으로, 모든 MThing들이 서로의 정보를 모두 포함하고 있다. 따라서, 사용자가 어떤 임무를 부여하면, MThing은 자신이 가지고 있는 다른 MThing들의 리스트를 검색하여 임무를 수행하기에 가장 적합한 MThing과 연결하여 임무를 수행한다.
도 4는 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 MThing간 연결(connecting)을 도시한 도면이다.
도 4는 도 3에서 추가된 카메라(300)에 임무가 주어지고, 추가된 카메라(300)는 해당 임무 수행에 필요한 주변의 MThing(200)들을 검색하는 경우로서, 추가된 카메라(300), 추적 장치(220) 및 저장소(230)간의 연결 과정을 나타내고 있다.
먼저, 사용자는 추가된 카메라(300)에 셋업 정보 등의 명령어를 포함하는 임무를 설정할 수 있으며(S401), 추가된 카메라(300)는 상기 설정된 임무를 분석하여 임무 수행에 필요한 주변의 MThing(200)들(추적 장치(220) 및 저장소(230))을 검색할 수 있다(S402).
이후, 추가된 카메라(300)는 검색된 저장소(230)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S403), 저장소(230)는 수신된 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 추가된 카메라(300)로 전송할 수 있다(S404). 여기서, 추가된 카메라(300)와 저장소(230)의 연결이 성립된다.
이후, 추가된 카메라(300)는 오디오/비디오(이하, 'A/V'라 칭함) 스트리밍 URL을 생성하고, 연결된 저장소(230)로 상기 생성된 URL을 전송한다(S405).
이후, 저장소(230)는 추가된 카메라(300)로부터 수신된 A/V 스트리밍 URL에 접속할 수 있다(S406).
이후, 추가된 카메라(300)는 A/V 스트리밍 URL을 통해 A/V 데이터를 전송하고(S407), 저장소(230)는 접속된 A/V 스트리밍 URL을 통해 A/V 데이터를 수신하여 저장할 수 있다(S408).
이후, 추가된 카메라(300)는 S402에서 검색된 추적 장치(220)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송한다(S409).
이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 추가된 카메라(300)로 전송할 수 있으며, 이때, 연결된 저장소의 ID(URL)를 메시지로 반환할 수 있다(S410). 여기서 추가된 카메라(300)와 추적 장치(220)의 연결이 성립된다.
이후, 추가된 카메라(300)는 A/V 스트리밍 URL을 생성하고, 연결된 저장소(230)로 상기 생성된 URL을 전송한다(S411).
이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 A/V 스트리밍 URL에 접속하고(S412), 추가된 카메라(300)는 A/V 스트리밍 URL을 통해 A/V 데이터를 전송할 수 있다(S413).
참고로, 상기 S401은 도 1에서 언급했던 제 1 인터페이스를 통해 수행될 수 있으며, 상기 S407과 S413은 제 2' 인터페이스를 통해 수행될 수 있다. 그리고 상기 S405, S410 및 S411은 제3 인터페이스를 통해 수행될 수 있다.
정리하면, 본 실시예의 과정은 도 3의 과정에서 MThing들이 서로 정보를 저장하고 있는 상태에서 사용자로부터 임무가 부여되었을 때 시작된다. 우선, 임무를 부여받은 MThing은 현재 필요한 MThing들이 사용 중이거나 전원이 꺼져 있는 지 등을 판단하기 위하여 연결 가능한지를 파악하기 위한 메시지를 송신하고, 연결 가능 여부를 응답받아 연결한다. 그런 후, MThing들은 사용자가 부여한 임무에 맞도록 상호 통신하면서 임무를 수행한다.
위에서는, 감지 및 추적 과정을 예로 하였으나, 다른 임무에도 위의 과정이 적용될 수 있다. 예를 들어, Microphone, Audio Analyzer, Alarm으로 구성된 환경에서, 사용자는 Microphone에 거친 숨소리를 감지해 알람을 울려라 라는 임무를 부여할 수 있다. 이에 따라, 사용자가 Microphone에 임무를 부여하고, Microphone이 임무에 필요한 Audio Analyzer와 Alarm를 찾고 연결 가능여부를 묻고 답하여 임무 환경을 조성한다. 이어서, Microphone은 소리를 감지하고 Audio Analyzer에 오디오 데이터를 전송하며, Audio Analyzer는 전송 받은 오디오 데이터를 통해 거친 숨소리를 감지한다. Audio Analyzer는 거친 숨소리를 감지하게 되면 Alarm에게 메시지를 전송해 Alarm이 작동해서 위급한 상황임을 알릴 수 있다.
도 5는 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 MThing간 연결(connecting)을 도시한 도면이다.
도 5는 도 4의 경우와 유사하나, 도 4의 저장소(이하, '제 1 저장소'라 칭함)(230)와는 다른 저장소(이하, '제 2 저장소'라 칭함)(230')를 이용하는 경우이다.
추가된 카메라(300)는 추적 장치(220)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송한다(S501).
이후, 추적 장치(220)는 추가된 카메라(300)로부터 연결 요청 메시지가 수신되면, 우선 순위의 저장소 정보를 이용하여 사용 가능한 저장소를 선택할 수 있다(S502).
이후, 추적 장치(220)는 S502에서 선택된 제 2 저장소(230')로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S503), 제 2 저장소(230')는 추적 장치(220)로 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 전송한다(S504). 여기서, 추적 장치(220)와 제 2 저장소(230')의 연결이 성립한다.
이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 추가된 카메라(300)로 전송할 수 있으며, 이때, 연결된 저장소의 ID(URL)를 메시지로 반환할 수 있다(S505).
이후, 추가된 카메라(300)는 A/V 스트리밍 URL을 생성하고, 연결된 제 2 저장소(230')에 상기 생성된 URL을 전송한다(S506).
이후, 추적 장치(220)는 추가된 카메라(300)로부터 수신된 A/V 스트리밍 URL에 접속하고(S507), 추가된 카메라(300)는 A/V 스트리밍 URL을 통해 A/V 데이터를 전송할 수 있다(S508).
참고로, 상기 S505와 S506은 도 1에서 언급했던 제3 인터페이스를 통해 수행될 수 있으며, 상기 S508은 제 2' 인터페이스를 통해 수행될 수 있다.
위에서는 개체 감지 및 추적 과정을 예로 하였으나, 사용자의 임무 부여에 따라 제 1 MThing이 제 2 MThing으로 연결을 요청하고, 상기 제 2 MThing이 임부에 필요한 제 3 MThing을 찾아 연결하고 상기 제 3 MThing을 상기 제 1 MThing에 연결시키는 한 다양한 예들로 확장될 수 있다.
도 6은 본 발명의 일 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.
도 6은 카메라(210)가 사람을 감지하고 추적하는 임무를 수행하는 경우이다.
카메라(210)는 촬영되는 A/V 데이터를 추적 장치(220)로 전송한다(S601).
이후, 추적 장치(220)는 카메라(210)에서 전송되는 비디오 데이터에서 사람을 인식하고, 인식된 사람을 추적하기 위한 특징점을 추출할 수 있다.
구체적으로, 추적 장치(220)는 캡쳐된 비디오에서 사람을 인식하고 인식된 사람의 모습(외모)에 의한 인물 정보, 동선(움직임 궤도) 및 인식된 사람이 미디어 내에서 등장하는 시점(media location)에 대한 정보를 추출할 수 있다(S602).
이후, 추적 장치(220)는 상기 추출된 인물 정보, 동선(움직임 궤도), 인식된 사람이 미디어 내에서 등장하는 시점에 대한 정보를 포함하는 메타데이터를 생성하고(S603), 생성된 메타데이터를 표준화된 포맷으로 변환하여 저장소(230)로 전송한다(S604).
이후, 저장소(230)는 추적 장치(220)로부터 수신된 메타데이터를 저장할 수 있다(S605).
참고로, 상기 S601과 S604은 도 1에서 언급했던 제 2' 인터페이스를 통해 수행될 수 있다.
정리하면, 본 실시예의 방법은 다른 MThing으로부터 전송된 정보를 포함하는 메타데이터를 생성하고, 상기 생성된 메타데이터를 자신 또는 또 다른 MThing에 저장시킬 수 있다. 물론, 이러한 방법은 감지 및 추적 과정으로 한정되지 않고 많은 임무들에 적용될 수 있다.
예를 들어, Camera, Face recognizer, Scent shooter, Audio player 등 여러가지 복잡한 임무의 경우에도 어떤 media 정보나 MThing의 정보를 metadata로 정의하여 주고받고 간단한 메시지의 경우에는 단순한 메세징을 통해 통신할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 개체 감지 및 추적 시스템의 사람 감지 및 추적을 도시한 도면이다.
도 7은 도 6에서 임무(task)를 수행하던 제 1 카메라(210)가 더 이상 임무를 수행할 수 없을 때, 즉, 감지된 사람이 촬영 시야에서 벗어났을 때, 제 1 카메라(210)는 해당 임무를 이어서 수행할 다른 카메라(300)를 검색하고, 임무를 이어 받은 추가된 카메라인 제 2 카메라(300)는 자신과 함께 임무를 수행할 MThing들을 검색하여 연결되는 과정이다.
구체적으로, 추적 장치(220)는 임무를 중단하라는 메시지를 제 1 카메라(210)로 전송하며, 이때, 사람의 모습(외모)에 의한 인물 정보, 동선(움직임 궤도) 및 인식된 사람이 미디어 내에서 등장하는 시점(media location)에 대한 정보를 포함하는 메타데이터를 함께 전송할 수 있다(S701).
이후, 제 1 카메라(210)는 자신의 임무를 이어서 수행할 제 2 카메라(300)를 검색하고, 제 2 카메라(300)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송한다(S702).
이후, 제 2 카메라(300)는 제 1 카메라(210)의 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 제 1 카메라(210)로 전송하며(S703), 이로써 제 1 카메라(210)와 제 2 카메라(300)가 연결될 수 있다.
이후, 제 1 카메라(210)는 S701에서 추적 장치(220)로부터 수신된 메타데이터를 제 2 카메라(300)로 전송한다(S704). 여기서 제 1 카메라(210)와 제 2 카메라(300)의 연결은 종료된다.
이후, 제 2 카메라(300)는 추적 장치(220)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S705), 추적 장치(220)는 제 2 카메라(300)의 연결 요청 메시지에 대한 응답(Yes or No)을 제 2 카메라(300)로 전송하여(S706), 제 2 카메라(300)와 추적 장치(220)가 연결될 수 있다.
이후, 제 2 카메라(300)는 저장소(230)로 연결 가능 여부를 확인하는 연결 요청 메시지를 전송하고(S707), 저장소(230)는 제 2 카메라(300)의 연결 요청 메시지에 대한 응답(Yes or No, 이하 'Yes'인 경우를 설명함)을 제 2 카메라(300)로 전송하여(S708), 제 2 카메라(300)와 저장소(230)가 연결될 수 있다.
정리하면, 본 실시예의 방법은 제 1 MThing과 연결된 제 2 MThing이 임무를 수행할 수 없는 상황이 된 경우 제 2 MThing이 임무를 대신 수행할 제 3 MThing을 찾고 상기 제 3 MThing에 메타데이터를 전송한다. 그 결과, 상기 제 1 MThing과 상기 제 3 MThing의 연결이 가능하게 되며, 상기 제 3 MThing은 상기 제 1 MThing과 통신하면서 상기 제 2 MThing을 대신하여 임무를 수행하게 된다.
위에서는 감지 및 추적을 예로 하였으나, 이로 한정되지 않는다. 예를 들어 Camera, Face recognizer, Scent shooter, Audio player로 구성되어 있는 임무의 환경에서 Camera가 비디오 정보를 Face recognizer에 전달하고 Face recognizer는 얼굴을 인식하여 그 사람이 좋아하는 향기를 뿜고 좋아하는 노래를 나오게 할 수 있다. 그러나, 사람이 거실에 있다가 화장실에 가게 되면 거실에 있던 Camera는 더 이상 그 사람을 찍을 수 없어 화장실에 있는 Camera에 임무를 대신 해줄 수 있냐는 메시지를 보내고 임무를 수행할 수 있으면 화장실에 있는 Camera가 임무를 이어서 수행할 수 있다.
마찬가지로 Scent shooter나 Audio player도 화장실에 있는 Scent shooter와 Audio player에게 임무를 전달하고 자신들은 임무에서 벗어나게 된다. 다만, Face recognizer 같은 경우에는 위치와 상관없이 어떤 video data를 받아도 임무를 수행할 수 있으므로 기존과 같은 Face recognizer를 쓸 수도 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명에 따른 진동 검출 장치는 진동 검출이 필요한 다양한 분야에 용이하게 적용할 수 있으며, 저가의 일회용 또는 반영구적으로 사용할 수 있다.
특히, 본 발명에 따른 진동 검출 장치는 생체신호 측정이나 움직임 검출, 건설 및 토목 분야에서의 붕괴 예측이나 산사태 예측, 생활 소음 측정 등 다양한 분야에 적용 가능하고, 고감도의 사용이 편리한 소형 경량의 센서를 저가로 생산하고 공급할 수 있다.

Claims (24)

  1. 미디어 중심 사물 인터넷(Media-centric Internet of Things;MIoT) 기반의 미디어 사물(Media Thing, MThing)에 있어서,
    사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 명령 처리 모듈; 및
    상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 통신 처리 모듈을 포함하되,
    상기 통신 처리 모듈은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  2. 제1항에 있어서, 상기 명령 처리 모듈은 상기 부여된 임무에 따라 자신의 메타데이터 또는 상기 다른 미디어 사물의 메타데이터를 분석하고 상기 분석 결과에 따라 상기 제어 명령어 또는 상기 메시지를 생성하되,
    상기 메타데이터는 해당 미디어 사물의 셋업 정보, 성질 또는 성능에 대한 정보를 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  3. 제1항에 있어서,
    상기 부여된 임무에 따라 촬영 시야에 존재하는 관심 개체를 감지하고, 상기 감지되는 관심 개체를 촬영하여 미디어를 생성하는 캡쳐 모듈을 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  4. 제1항에 있어서,
    상기 다른 미디어 사물로부터 관심 개체를 촬영한 미디어가 수신되면, 상기 수신된 미디어를 분석하여 디스크립터(descriptor)와 디스크립션(description)을 생성하는 데이터 처리 모듈을 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  5. 제1항에 있어서,
    상기 다른 미디어 사물로부터 저장 요청되는 데이터를 저장하는 저장 처리 모듈을 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  6. 제1항에 있어서, 상기 통신 처리 모듈은 상기 생성된 제어 명령어 또는 상기 메시지를 브로드캐스팅하되,
    상기 통신 처리 모듈은 상기 다른 미디어 사물로부터 상기 브로드캐스팅에 대한 응답으로서 상기 다른 미디어 사물의 메타데이터를 수신하고, 상기 명령 처리 모듈은 상기 수신된 메타데이터를 저장하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  7. 제1항에 있어서, 상기 통신 처리 모듈은 네트워크에 새롭게 추가된 미디어 사물로부터 브로드캐스팅된 메타데이터를 수신하고, 상기 명령 처리 모듈은 상기 수신된 메타데이터에 응답하여 자신의 메타데이터를 전송시키는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  8. 제1항에 있어서, 상기 명령 처리 모듈은 상기 임무를 포함하는 메타데이터를 분석하고 분석 결과에 기반하여 하나 이상의 다른 미디어 사물을 검색하여 선택하며, 상기 선택된 하나 이상의 다른 미디어 사물로 데이터를 전송하기 위한 스트리밍 URL을 생성하고,
    상기 통신 처리 모듈은 상기 선택된 미디어 사물로 연결 요청 메시지를 전송하고, 상기 선택된 미디어 사물로부터 연결 요청 메시지에 대한 응답을 수신하며, 상기 선택된 미디어 사물로 상기 생성된 스트리밍 URL을 전송하고, 상기 스트리밍 URL로 상기 데이터를 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  9. 제1항에 있어서, 상기 명령 처리 모듈은 다른 미디어 사물로부터 연결 요청 메시지가 수신되면, 상기 수신된 연결 요청 메시지에 대한 응답 메시지를 생성하고, 상기 통신 처리 모듈은 상기 생성된 응답 메시지를 상기 다른 미디어 사물로 전송하되,
    상기 통신 처리 모듈은 상기 다른 미디어 사물과 연결이 성립되면 상기 다른 미디어 사물로부터 데이터 전송을 위해 생성된 스트리밍 URL을 수신하고, 상기 명령 처리 모듈은 상기 수신된 스트리밍 URL에 접속하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  10. 제1항에 있어서, 상기 명령 처리 모듈은 다른 제 1 미디어 사물로부터 연결 요청 메시지가 수신되면 상기 수신된 연결 요청 메시지에 대한 응답 메시지를 생성하고, 하나 이상의 다른 제 2 미디어 사물에 대한 메타데이터를 이용하여 우선 순위에 따라서 사용 가능한 하나의 다른 제 2 미디어 사물을 선택하며, 상기 선택된 다른 제 2 미디어 사물로 전송하기 위한 연결 요청 메시지를 생성하고,
    상기 통신 처리 모듈은 상기 다른 제 1 미디어 사물로부터 연결 요청 메시지를 수신하고, 상기 생성된 응답 메시지와 상기 선택된 다른 제 2 미디어 사물의 식별자 또는 URL을 상기 다른 제 1 미디어 사물로 전송하며, 상기 선택된 다른 제 2 미디어 사물로 연결 요청 메시지를 전송하고, 상기 다른 제 2 미디어 사물로부터 상기 연결 요청 메시지에 대한 응답 메시지를 수신하되,
    상기 명령 처리 모듈은 데이터를 전송하기 위해 상기 다른 제 1 미디어 사물이 생성한 스트리밍 URL에 접속하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  11. 제1항에 있어서, 상기 명령 처리 모듈은 다른 제 1 미디어 사물로부터 수신된 오디오/비디오 데이터로부터 관심 개체를 감지하고, 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 감지된 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 추출하며, 상기 추출된 정보를 포함하는 메타데이터를 생성하고, 상기 생성된 메타데이터를 미리 정해진 포맷으로 변환하며,
    상기 통신 처리 모듈은 상기 다른 제 1 미디어 사물로부터 상기 오디오/비디오 데이터를 수신하고, 상기 변환된 포맷의 메타데이터를 다른 제 2 미디어 사물로 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  12. 제1항에 있어서, 상기 명령 처리 모듈은 다른 제 1 미디어 사물의 임무를 수행 가능 여부를 판단하고, 상기 다른 제 1 미디어 사물이 상기 임무를 수행할 수 없는 경우라고 판단되면 임무 중지 메시지를 생성하며,
    데이터 처리 모듈은 상기 다른 제 1 미디어 사물이 촬영한 관심 개체에 대한 데이터로부터 메타데이터 - 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 를 추출하고,
    상기 통신 처리 모듈은 상기 다른 제 1 미디어 사물로 상기 임무 중지 메시지와 상기 메타데이터를 전송하되,
    상기 명령 처리 모듈은 상기 다른 제 1 미디어 사물이 선택한 동일 기능을 수행하는 미디어 사물인 다른 제 2 미디어 사물로부터 수신된 연결 가능 여부를 묻는 메시지에 대한 응답 메시지를 생성하며,
    상기 통신 처리 모듈은 상기 다른 제 2 미디어 사물로부터 상기 연결 가능 여부를 묻는 메시지를 수신하고, 상기 생성된 응답 메시지를 상기 다른 제 2 미디어 사물로 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  13. 제1항에 있어서, 상기 명령 처리 모듈은 다른 제 1 미디어 사물로부터 임무 중지 메시지와 메타데이터 - 관심 개체를 촬영한 데이터로부터 추출된 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 가 수신되면, 동일 기능을 수행하는 미디어 사물인 다른 제 2 미디어 사물을 검색하여 선택하고, 상기 선택된 다른 제 2 미디어 사물로 전송할 연결 가능 여부를 묻는 메시지를 생성하며,
    상기 통신 처리 모듈은 상기 생성된 연결 가능 여부를 묻는 메시지를 상기 다른 제 2 미디어 사물로 전송하고, 상기 다른 제 2 미디어 사물로부터 응답 메시지를 수신하되,
    상기 명령 처리 모듈은 상기 다른 제 2 미디어 사물로부터 상기 응답 메시지가 수신되면, 상기 메타데이터를 상기 다른 제 2 미디어 사물로 전송시키는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  14. 제1항에 있어서, 상기 명령 처리 모듈은 동일 기능을 수행하는 다른 제 1 미디어 사물로부터 연결 가능 여부를 묻는 메시지가 수신되면, 상기 연결 가능 여부를 묻는 메시지에 대한 응답 메시지를 생성하고, 상기 다른 제 1 미디어 사물로부터 메타데이터 - 상기 제 1 미디어 사물이 관심 개체를 촬영한 데이터로부터 추출된 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 가 수신되면, 상기 다른 제 1 미디어 사물과 연결되었던 다른 제 2 미디어 사물에 대한 연결 가능 여부를 묻는 메시지를 생성하며,
    상기 통신 처리 모듈은 상기 다른 제 1 미디어 사물로부터 상기 연결 가능 여부를 묻는 메시지와 메타데이터를 수신하고, 상기 다른 제 2 미디어 사물에 대한 연결 가능 여부를 묻는 메시지를 상기 다른 제 2 미디어 사물로 전송하는 것을 특징으로 하는 MIoT 기반의 미디어 사물.
  15. 미디어 중심 사물 인터넷(Media-centric Internet of Things;MIoT) 기반의 미디어 사물(Media Thing, MThing)의 동작 방법에 있어서,
    사용자에 의해 부여된 임무에 따라 제어 명령어 또는 메시지를 생성하는 단계; 및
    상기 제어 명령어 및 상기 메시지 중 하나 이상을 다른 미디어 사물로 전송하는 단계를 포함하되,
    상기 미디어 사물은 상기 사용자의 제어 없이 상기 부여된 임무에 따라 상기 다른 미디어 사물과 교신하여 통신 연결되는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  16. 제15항에 있어서, 상기 명령어 도는 상기 메시지는 상기 미디어 사물의 메타데이터 또는 다른 미디어 사물의 메타데이터의 분석에 따라 생성되되,
    상기 메타데이터는 해당 미디어 사물의 셋업 정보, 성질 또는 성능에 대한 정보를 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  17. 제15항에 있어서, 상기 미디어 사물은 네트워크에 새롭게 추가된 미디어 사물이되,
    자신의 메타데이터를 네트워크 기 존재하는 다른 미디어 사물로 브로드캐스팅하는 단계;
    상기 기 존재하는 다른 미디어 사물로부터 상기 다른 미디어 사물의 메타데이터를 수신하는 단계; 및
    상기 수신된 다른 미디어 사물의 메타데이터를 수신하여 저장하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  18. 제15항에 있어서,
    새롭게 추가된 다른 미디어 사물로부터 메타데이터를 수신하여 저장하는 단계;
    상기 새롭게 추가된 미디어 사물로 자신의 메타데이터를 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  19. 제15항에 있어서,
    상기 부여된 임무를 포함하는 메타데이터를 분석하고 분석 결과에 기반하여 하나 이상의 다른 미디어 사물을 검색 및 선택하는 단계;
    상기 선택된 다른 미디어 사물 중 제 1 다른 미디어 사물로 연결 요청 메시지(이하, '제 1 연결 요청 메시지'라 칭함)를 전송하는 단계;
    상기 다른 제 1 미디어 사물로부터 상기 제 1 연결 요청 메시지에 대한 응답을 수신하는 단계;
    데이터를 전송하기 위한 스트리밍 URL을 생성하고, 상기 생성된 URL을 상기 다른 제 1 미디어 사물로 전송하는 단계;
    상기 스트리밍 URL로 데이터를 전송하는 단계;
    상기 선택된 미디어 사물 중 다른 제 2 미디어 사물로 연결 요청 메시지(이하, '제 2 연결 요청 메시지'라 칭함)를 전송하는 단계;
    상기 다른 제 2 미디어 사물로부터 상기 제 2 연결 요청 메시지에 대한 응답을 수신하는 단계;
    데이터를 전송하기 위한 스트리밍 URL을 생성하고, 상기 생성된 URL을 상기 다른 제 2 미디어 사물로 전송하는 단계; 및
    상기 스트리밍 URL로 데이터를 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  20. 제15항에 있어서,
    다른 미디어 사물로부터 연결 요청 메시지를 수신하는 단계;
    상기 수신된 연결 요청 메시지에 대한 응답을 상기 다른 미디어 사물로 전송하는 단계;
    상기 다른 미디어 사물로부터 전송된 스트리밍 URL을 이용하여 접속하는 단계; 및
    상기 다른 미디어 사물로부터 상기 스트리밍 URL을 통하여 데이터를 수신하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  21. 제15항에 있어서,
    하나 이상의 다른 제 2 미디어 사물에 대한 메타데이터를 이용하여 우선 순위에 따라 사용 가능한 하나의 다른 제 2 미디어 사물을 선택하는 단계;
    상기 선택된 다른 제 2 미디어 사물로 연결 요청 메시지를 전송하는 단계;
    상기 다른 제 2미디어 사물로부터 상기 연결 요청 메시지에 대한 응답 메시지를 수신하는 단계; 및
    상기 다른 제 1 미디어 사물의 연결 요청 메시지에 대한 응답 메시지와 상기 다른 제 2 미디어 사물의 식별자 또는 URL을 상기 다른 제 1 미디어 사물로 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  22. 제15항에 있어서,
    상기 다른 미디어 사물로부터 전송된 데이터로부터 추출된 정보를 포함하는 메타데이터를 생성하고, 상기 생성된 메타데이터를 미리 정해진 포맷으로 변환하는 단계; 및
    상기 변환된 포맷의 메타데이터를 또 다른 미디어 사물로 전송하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  23. 제15항에 있어서,
    상기 다른 미디어 사물의 임무를 수행 가능 여부를 판단하고 상기 다른 미디어 사물이 상기 임무를 수행할 수 없는 경우라고 판단되면, 임무 중지 메시지와 상기 다른 미디어 사물이 촬영한 관심 개체에 대한 데이터로부터 추출된 메타데이터 - 상기 관심 개체의 외형과 상기 외형에 기초한 관심 개체의 정보, 상기 관심 개체의 움직임 궤도 정보 및 상기 데이터에서 상기 관심 개체가 등장하는 시점(media location)에 대한 정보 중 하나 이상을 포함함 - 를 상기 다른 미디어 사물로 전송하는 단계;
    상기 임무의 대체가 가능한 또 다른 미디어 사물로부터 연결 요청 메시지를 수신하는 단계;
    상기 수신된 연결 요청 메시지에 따라 응답 메시지를 상기 또 다른 미디어 사물로 전송하는 단계; 및
    상기 또 다른 미디어 사물과 연결하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
  24. 제15항에 있어서,
    상기 다른 미디어 사물이 임무를 수행하지 못하는 경우 상기 다른 미디어 사물로부터 제 1 연결 요청 메시지를 수신하는 단계;
    상기 제 1 연결 요청 메시지에 대한 응답 메시지를 상기 다른 미디어 사물로 전송하는 단계;
    또 다른 미디어 사물로 제 2 연결 요청 메시지를 전송하는 단계; 및
    상기 또 다른 미디어 사물과 연결하는 단계를 더 포함하는 것을 특징으로 하는 MIoT 기반의 미디어 사물 동작 방법.
PCT/KR2016/011106 2015-10-16 2016-10-05 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법 WO2017065443A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20150144796 2015-10-16
KR10-2015-0144796 2015-10-16
KR1020160103675A KR20170045102A (ko) 2015-10-16 2016-08-16 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법
KR10-2016-0103675 2016-08-16

Publications (1)

Publication Number Publication Date
WO2017065443A1 true WO2017065443A1 (ko) 2017-04-20

Family

ID=58517364

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011106 WO2017065443A1 (ko) 2015-10-16 2016-10-05 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법

Country Status (1)

Country Link
WO (1) WO2017065443A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120080410A (ko) * 2011-01-07 2012-07-17 삼성전자주식회사 디바이스간 동기화된 인터랙션을 제공하는 콘텐츠 동기화 장치 및 방법
WO2013089390A1 (ko) * 2011-12-15 2013-06-20 한국과학기술원 콘텐츠의 생성 및 소비에 기반한 개인 정보 제공 시스템
KR20140036961A (ko) * 2012-09-18 2014-03-26 삼성전자주식회사 정보 전송 방법 및 시스템과 그 기기
WO2015056952A1 (ko) * 2013-10-14 2015-04-23 전자부품연구원 리소스 접근 방법 및 이를 적용한 시스템
KR20150103880A (ko) * 2014-03-04 2015-09-14 한국전자통신연구원 기기간 무설정 연동 장치와 방법, 및 이를 이용한 분산형 홈네트워크 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120080410A (ko) * 2011-01-07 2012-07-17 삼성전자주식회사 디바이스간 동기화된 인터랙션을 제공하는 콘텐츠 동기화 장치 및 방법
WO2013089390A1 (ko) * 2011-12-15 2013-06-20 한국과학기술원 콘텐츠의 생성 및 소비에 기반한 개인 정보 제공 시스템
KR20140036961A (ko) * 2012-09-18 2014-03-26 삼성전자주식회사 정보 전송 방법 및 시스템과 그 기기
WO2015056952A1 (ko) * 2013-10-14 2015-04-23 전자부품연구원 리소스 접근 방법 및 이를 적용한 시스템
KR20150103880A (ko) * 2014-03-04 2015-09-14 한국전자통신연구원 기기간 무설정 연동 장치와 방법, 및 이를 이용한 분산형 홈네트워크 시스템

Similar Documents

Publication Publication Date Title
JP6531341B2 (ja) 情報処理装置、サーバ、記憶媒体、および制御方法
EP2828818A1 (en) Mobile communication terminal and method of recommending application or content
WO2020130689A1 (ko) 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
WO2018154901A1 (ja) 制御装置及び方法
WO2017217713A1 (en) Method and apparatus for providing augmented reality services
WO2012086897A1 (ko) 사용자 이동 패턴과 감정 정보에 따른 사용자 정보의 제공 서버의 운영 방법
CN109413760B (zh) 一种无线连接方法及设备
CN109895092B (zh) 信息处理装置、信息处理方法以及计算机可读介质
WO2020262808A1 (ko) 영역(zone)을 형성하여 전자 장치에 관한 서비스를 제공하는 방법 및 그 장치
EP3210338A1 (en) Method of controlling device and device thereof
WO2017065443A1 (ko) 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법
WO2019078469A1 (ko) 전자 장치 및 그의 서비스 제공 방법
KR20170045102A (ko) 미디어 중심 사물 인터넷 기반의 미디어 사물 및 이의 동작 방법
WO2020235740A1 (ko) 이미지 기반 실내 측위 서비스 시스템 및 방법
WO2022050622A1 (ko) 디스플레이장치 및 그 제어방법
JP6354848B2 (ja) センサ管理システム、センサ管理装置、センサ装置、センサ管理方法およびプログラム
WO2017003152A1 (en) Apparatus and method for controlling object movement
WO2018062591A1 (ko) 컨텐츠 제공 방법 및 시스템
WO2014123299A1 (ko) 모션 매칭을 이용하는 컨텐츠 동기화 서버 및 컨텐츠 동기화 방법
WO2020246823A1 (ko) 네트워크 감시 카메라 시스템 및 그 동작 방법
WO2020106011A1 (en) Device for generating user profile and system comprising the device
JP5548057B2 (ja) データ共有システム、制御方法及び制御プログラム
WO2018124372A1 (ko) 시각적 콘텐츠 검색용 데이터베이스 생성 장치 및 방법
WO2024075961A1 (ko) 영상에 포함된 객체에 대한 추론을 수행하는 방법 및 디바이스
WO2019151548A1 (ko) 얼굴 인식에 기초하여 정보를 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16855660

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16855660

Country of ref document: EP

Kind code of ref document: A1