WO2020122662A1 - Platform, system, and diagnostic method for robot recognition - Google Patents

Platform, system, and diagnostic method for robot recognition Download PDF

Info

Publication number
WO2020122662A1
WO2020122662A1 PCT/KR2019/017676 KR2019017676W WO2020122662A1 WO 2020122662 A1 WO2020122662 A1 WO 2020122662A1 KR 2019017676 W KR2019017676 W KR 2019017676W WO 2020122662 A1 WO2020122662 A1 WO 2020122662A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot recognition
image
recognition platform
analysis
image data
Prior art date
Application number
PCT/KR2019/017676
Other languages
French (fr)
Korean (ko)
Inventor
조영임
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Publication of WO2020122662A1 publication Critical patent/WO2020122662A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a robot recognition platform, a robot recognition platform system, and a method for diagnosing a robot recognition platform system. More specifically, an event occurs in each image data collected from a plurality of cameras (image taking apparatus).
  • the present invention relates to a robot recognition platform, a robot recognition platform system, and a robot recognition platform system diagnostic method for analyzing a specific data analysis through an AI diagnostic server.
  • Each image information acquired in real time through a plurality of surveillance cameras is displayed on a control monitor provided inside the control room.
  • the screen of the control monitor is divided into hardware or software according to the number of surveillance cameras, so that each video information is displayed on the control monitor so as to be distinguished from each other.
  • the control monitor does not properly receive the video information provided by the surveillance camera, thereby preventing crime and There was a problem that security enhancement could not be achieved.
  • the present invention for solving the conventional problems as described above analyzes the analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) through the AI diagnostic server, and the analysis results
  • the robot recognition platform, the robot recognition platform system, and the robot recognition platform system that can perform the control more easily and effectively by outputting at once and accessing the script only from the back end and not from the external session. It is an object to provide a diagnostic method of.
  • the robot recognition platform system image data collecting image data from a plurality of image taking devices (100-1, 100-2, 100-3, ..., 100-n)
  • the collection unit 100 the robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100, and the specific request requested from the robot recognition platform 200
  • AI diagnostic server 400 that performs data analysis and responds to the robot recognition platform 200 and receives the result from the AI diagnostic server 400 and the robot recognition platform 200 It includes a remote control controller 300 for controlling or remotely controlling the image data by accessing.
  • the remote control control unit 300 by the remote control control unit 300, the image recognition device of one of the image capture device of the image data collection unit 100 to the robot recognition platform 200
  • the remote control control unit 300 When registering the host information of, it is preferable to prepare a control session by accessing the streaming of the corresponding image photographing device from the robot recognition platform 200.
  • the host information is preferably set to unique host information through DNS (Dynamic Domain Name System) and port forwarding in the network of the corresponding image capturing apparatus. .
  • DNS Dynamic Domain Name System
  • the host information is automatically recognized and the robot recognition platform 200 ).
  • the robot recognition platform 200 activates a streaming channel session of the corresponding corresponding image taking device, and the host information registered in the robot recognition platform 200.
  • the activated streaming channel session is controlled in real time by the remote control control unit 300 connected to the robot recognition platform 200. Do.
  • the robot recognition platform 200 activates a streaming channel session and a command channel session of a registered corresponding image taking device, and the robot recognition platform 200 is
  • the AI diagnosis server 400 responds to the robot recognition platform 200 in the Jason format (json-format). desirable.
  • image data is collected from a plurality of image photographing devices (100-1, 100-2, 100-3, ..., 100-n) Request from the robot data recognition platform 100 and the robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100, and the robot recognition platform 200 Performs analysis of the specific data, and the AI diagnostic server 400 responds to the robot recognition platform 200, and receives the result from the AI diagnostic server 400, and recognizes the robot.
  • image photographing devices 100-1, 100-2, 100-3, ..., 100-n
  • a diagnostic method for analyzing specific data of a platform system for robot recognition including a remote control controller 300 for controlling or remotely controlling the image data by accessing the platform 200, includes the remote control controller 300
  • the image agent 120 delivers the image to the robot recognition platform 200 and analyzes the image.
  • the AI diagnosis server 400 sends the analysis result of the requested image to the robot recognition platform 200. It is preferable that the seventh step (S7) of transferring and the robot recognition platform 200 further include an eighth step (S8) of responding the analysis result to the image agent 120.
  • the image agent 120 includes the image and the analysis result of the image in the processing unit 110.
  • the ninth step (S9) of transferring, and the processing unit 110 displays the image on the screen of the remote control control unit 300 that has transmitted the command, and the tenth step (S10) of displaying the analysis result of the image. It is preferred to further include.
  • the robot recognition platform the streamer 210 to control the JPEG frame of the image data collected from the image capture device on the IP-based network in real time in the remote control control unit 300 And a backend 230 for uploading image data received from the image pickup device or requesting analysis from the AI diagnosis server 400.
  • the streamer 210 is executed by a script 220 that executes or stops a stream server and an image agent running inside the image photographing device, and designates host setting information. It is preferably carried out.
  • the back end 230 requests analysis of the image data uploaded from the image photographing device to the AI diagnosis server 400, and the result is Jason-format. It is preferably performed by the analysis script 240 made of.
  • analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) is analyzed through an AI diagnosis server, and the analysis results are output at once
  • the script can be accessed only from the backend, and not accessible from external sessions, making control easier and more effective.
  • FIG. 1 is a system configuration diagram showing the overall configuration of a platform system for robot recognition according to an embodiment of the present invention.
  • FIG. 2 is a configuration diagram showing the automatic setting of the image pickup device in the robot recognition platform system according to an embodiment of the present invention.
  • FIG. 3 is a configuration diagram showing image environment setting and streaming in a robot recognition platform system according to an embodiment of the present invention.
  • FIG. 4 is a block diagram showing an automatic image transmission/reception and diagnostic process according to an embodiment of the present invention.
  • FIG. 5 is a floor chart showing the overall flow of the diagnostic process in the robot recognition platform system according to an embodiment of the present invention.
  • FIG. 6 is a block diagram illustrating a source configuration of a robot recognition platform in a robot recognition platform system according to an embodiment of the present invention.
  • the platform system for robot recognition includes an image data collection unit 100 that collects image data from a plurality of image photographing devices 100-1, 100-2, 100-3, ..., 100-n,
  • the robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100, and the analysis of the specific data requested from the robot recognition platform 200, AI diagnostic server 400 responding to the result of the robot recognition platform 200, and receiving the result from the AI diagnostic server 400, and accessing the robot recognition platform 200 to access the image data
  • an image data collection unit that collects image data from a plurality of image photographing devices (100-1, 100-2, 100-3, ..., 100-n)
  • the robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100 and the specific data requested from the robot recognition platform 200 AI analysis server 400 that performs analysis, and responds to the robot recognition platform 200, and receives the results from the AI diagnosis server 400 and the robot recognition platform 200.
  • a diagnostic method for analyzing specific data of the platform system for robot recognition including the remote control controller 300 for controlling or remotely controlling the image data by accessing the remote control controller 300 for the robot recognition
  • the processing unit 110 includes a fourth step (S4) of storing the image of the snapshot executed by the corresponding image photographing equipment and requesting the image agent 120 to analyze the image.
  • the component when a component is described as being "existing in or connected to another component", the component may be installed directly connected to or in contact with another component, and may be It may be installed spaced apart from a distance, and when installed spaced apart from a certain distance, there may be a third component or means for fixing or connecting the component to other components. It should be understood that the description of the components or means of 3 may be omitted.
  • ⁇ unit ⁇ group
  • module module
  • device if used, refer to a unit capable of processing one or more functions or operations, which are hardware. Or, it should be understood that it may be implemented in software, or a combination of hardware and software.
  • frame part should be understood to mean a unit including the first frame part and the second frame part
  • dividing unit is understood to mean a unit including the "door part” and the "post part”. Should be.
  • FIG. 1 is a system configuration diagram showing the overall configuration of a robot recognition platform system according to the present invention.
  • the robot recognition platform system 1000 includes an image data collection unit 100, a robot recognition platform 200, a remote control control unit 300, and an AI diagnosis server. 400.
  • the image data collection unit 100 serves to collect image data from a plurality of image photographing apparatuses 100-1, 100-2, 100-3, ..., 100-n, for example, a plurality of cameras. That is, the plurality of image photographing apparatuses 100-1, 100-2, 100-3, ..., 100-n collect image information obtained by being photographed by each camera installed in a plurality of areas.
  • the image information has one image format format such as a color image, a gray image, and a binary image.
  • the robot recognition platform 200 serves to request analysis of specific data among image data collected from the image data collection unit 100.
  • the robot recognition platform 200 analyzes each image information collected through the image data collection unit 100 individually and detects an event appearing in the image information, or an event detected by the event detection unit. It may include a display area determining unit for determining the display area of each image information so that the related image information is displayed in the centralized control area of the control image.
  • the event means the movement of the object appearing in each image information. That is, the event detection unit analyzes the image information, recognizes an object composed of a predetermined pixel group, and when the detected object movement occurs, considers the event to be generated and generates a detection signal corresponding to the event.
  • the detection signal may include index information and time information together to distinguish from which image information an event has occurred and when an event has occurred.
  • the display area determining unit determines the display area of the video information related to the event and the display area of the remaining video information not related to the event so that the video information detecting the event in a unit time is displayed in the centralized control area of the control video.
  • the centralized control area of the control image is determined as the display area, and the rest of the video information not related to the event is determined as the display area, not the centralized control area.
  • the AI diagnosis server 400 performs analysis of specific data requested from the robot recognition platform 200, and serves to respond to the result of the robot recognition platform 200.
  • the specific data may be an event appearing in image information as described above. That is, when the movement of the object recognized by the robot recognition platform 200 occurs, the event is considered to have occurred, and the AI diagnosis server 400 is requested to analyze the event.
  • the AI diagnostic server 400 learns these events in a deep learning or the like manner, and responds to the robot recognition platform 200 for analysis results of the learned events.
  • the analysis result of the event may be an object movement, an object movement path, an illumination state, a vibration state of the camera, or an environmental factor. That is, conditions affecting the movement of the object as well as the movement of the object may respond to the robot recognition platform 200 as an analysis result.
  • the remote control control unit 300 receives the analysis result from the AI diagnosis server 400 and accesses the robot recognition platform 200 to control or remotely control image data.
  • the centralized control area determined as the display area is controlled by the robot recognition platform 200 as a control image. That is, the administrator observes and controls the video information displayed in the central control area in which the event according to the movement of the object is detected among the control images displayed on the control monitor of the remote control controller 300, thereby reducing fatigue and easily and effectively There is an effect that can be controlled.
  • FIG. 2 is a configuration diagram showing the automatic setting of the image pickup device in the robot recognition platform system according to the present invention.
  • each of a plurality of image photographing devices 100-1, 100-2, 100-3, ..., 100-n is automatically set.
  • the configuration will be described.
  • the remote control control unit 300 of the image capturing device (100-1, 100-2, 100-3, ..., 100-n) of the image data collection unit 100 to the robot recognition platform (200)
  • the robot recognition platform 200 accesses streaming of the corresponding imaging device to prepare a control session.
  • DDNS Dynamic DNS, which is a method of updating DNS in real time. It is mainly used when the domain's IP is flexible, and even if the IP is changed, the domain value set by DDNS does not change, so connection is easy.
  • port forwarding is a method in which a specific communication port is opened in a computer for communication. That is, it is a method to designate the internal port to be transmitted to an external remote server, or to connect a specific port of the firewall to a specific host in the internal network while maintaining the firewall.
  • firewall software or Internet routers including Windows Firewall in Microsoft Windows XP Service Pack 2
  • Windows Firewall in Microsoft Windows XP Service Pack 2
  • the host information of the image photographing apparatus can be registered as unique host information through DDNS and port forwarding.
  • the web socket is implemented on a web browser and a web server to support real-time interaction between two points.
  • the web socket protocol was standardized in 2011 by the Internet standardization organization IETF (IETF RFC 6455), and the web socket application programming interface (API) was standardized by the World Wide Web Consortium W3C.
  • IETF RFC 6455 the Internet standardization organization
  • API web socket application programming interface
  • FIG. 3 is a configuration diagram showing image environment setting and streaming in the robot recognition platform system according to the present invention.
  • the robot recognition platform 200 activates the streaming channel session of the registered corresponding image taking device.
  • This video recording apparatus provides two channels, one for streaming and the other for control commands.
  • the host information registered in the robot recognition platform 200 is checked, and if there is no abnormality in the network of the corresponding image taking device, the activated streaming channel session
  • the remote control controller 300 connected to the robot recognition platform 200 through performs real-time control.
  • the processing unit 110 of the image data collection unit 100 is provided with a serial number, shooting environment information, collection equipment information, and an automatic shooting mode through the image photographing equipment. It is delivered to the robot recognition platform 200.
  • FIG. 4 is a configuration diagram illustrating an automatic image transmission/reception and diagnosis process in a robot recognition platform system according to the present invention.
  • the robot recognition platform 200 activates a streaming channel session and a command channel session of the registered corresponding image taking device, and the robot recognition platform 200 requests analysis from the AI diagnosis server 400 to diagnose image data Then, the AI diagnostic server 400 responds to the robot recognition platform 200 through the Jason format of the analysis result.
  • the Jason format is a protocol used for communication between an embedded client and a web server.
  • the robot recognition platform 200 serves as an embedded client
  • the AI diagnosis server 400 serves as a web server. That is, when the robot recognition platform 200 requests analysis, the AI diagnosis server 400 transmits a response to the analysis.
  • FIG. 5 is a floor chart showing the overall flow of the diagnostic process in the robot recognition platform system according to the present invention.
  • a process for diagnosis is performed by 10 steps as follows.
  • the remote control control unit 300 connects to the robot recognition platform 200 and transmits a snapshot command to the processing unit 110 of the corresponding image taking device.
  • the snapshot refers to storing the current state of the memory including all contents, such as a main memory of one moment, a hardware register, and a status indicator, in order to check the state of a program running on a computer. That is, snapshots are periodically saved for recovery when the system is stopped due to a malfunction.
  • the processing unit 110 of the data collection unit 100 requests a snapshot command to the corresponding image photographing apparatus, and in the third step (S3), the snapshot executed by the corresponding image photographing equipment The execution result of the command is transmitted to the processing unit 110.
  • a fourth step (S4) the processing unit 110 stores an image of a snapshot executed by the corresponding imaging device, requests an analysis from the image agent 120 to analyze the image, and a fifth step ( In S5), the image agent 120 transmits an image to the robot recognition platform 200 and also transmits a request command for analysis.
  • the robot recognition platform 200 stores the received image and requests analysis from the AI diagnosis server 400, and in the seventh step (S7), the AI diagnosis server 400 is The analysis result of the requested image is transmitted to the robot recognition platform 200.
  • the robot recognition platform 200 responds to the analysis result to the image agent 120, and in the ninth step (S9), the image agent 120 and the image to the processing unit 110, The results of the analysis of the images are delivered together.
  • the processing unit 110 displays an image and an analysis result of the image on the screen of the remote control control unit 300 that has transmitted the command.
  • the image data collected from the image data collection unit 100 is transmitted to the robot recognition platform 200, and the robot recognition platform 200 and the AI diagnosis server 400 are diagnosed. Process.
  • FIG. 6 is a block diagram illustrating a source configuration of a robot recognition platform in the robot recognition platform system according to the present invention.
  • the robot recognition platform 200 further includes a streamer 210 server and a backend 230 server.
  • the streamer 210 allows the remote control control unit 300 to control the JPEG frame of the image data in real time on the IP-based network.
  • the streamer 210 is executed by a script 220 that executes or stops a stream server and an image agent that are executed inside the image photographing apparatus of the image data collection unit 100, and specifies host setting information.
  • streamer 210 is a server made based on open source (mjpg-streamer).
  • the camera module can be installed as a plug-in to control JPEG frames in real time on an IP-based network.
  • the video is optimized to operate in viewers in various other environments such as Chrome, Firefox, VLC, and mplayer. It comes with several open source utilities that allow RAM and CPU to operate in limited environments.
  • the script 220 executes or stops a stream server and an agent running inside the image photographing device, and designates other setting information. It is not allowed to be accessed from the external session (front end), and must be executed through the session or system that requested the valid command.
  • the backend 230 uploads the image data received from the imaging device or requests the AI diagnosis server 400 for analysis.
  • the backend 230 is performed by the analysis script 240 that requests analysis of the image data uploaded from the image pickup device to the AI diagnosis server 230 and makes the result in Jason format.
  • the backend 230 is a server dedicated to API processing made using NodeJS.
  • the function is performed by receiving a predefined API request, and the API service processing is classified by an internal router.
  • all web sessions, web sockets, and database sessions are managed in a connection-pool method.
  • the size of the pool is set and used according to the resource performance of the operating equipment.
  • the connection pool method refers to a cache of database connections in database memory. Database connections are reused when a request for data occurs, which is used to improve the performance of the database.
  • Connection pools also reduce the amount of time users wait for database connections.
  • a video uploading device When a video uploading device receives a request to upload a file, it uploads it to a designated location. According to the command, simply upload or perform the request to the AI diagnosis server 400 after the upload is completed. When the request for analysis of the uploaded image is requested to the AI diagnostic server 400, the corresponding result is provided in the Jason format.
  • the analysis script 240 is a python script that makes a diagnosis request to the AI diagnosis server 400 for the image uploaded from the image pickup device and makes the result in the Jason format.
  • various information such as information on an image is output at once. This script can only be accessed from the backend, and cannot be used in the frontend session.
  • analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) is analyzed through an AI diagnosis server, and the analysis results are output at once
  • the script can be accessed only from the backend, and not accessible from external sessions, making control easier and more effective.
  • an analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) is analyzed through an AI diagnostic server, the analysis results are output at once, and the corresponding script is It can be accessed only from the backend, and not from external sessions, making control easier and more effective.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Manipulator (AREA)

Abstract

The present invention comprises: an image data collection unit (100) for collecting image data from a plurality of image capturing devices (100-1, 100-2, 100-3, …, and 100-n); a robot recognition platform (200) for requesting analysis of specific data in image data collected by the image data collection unit (100); an AI diagnostic server (400) for performing analysis of the specific data, which is requested by the robot recognition platform (200), and transmitting, as a response, a result of the analysis to the robot recognition platform (200); and a remote-control controlling unit (300) for receiving the result from the AI diagnostic server (400) and accessing the robot recognition platform (200) to control or remote control the image data. Accordingly, analysis of specific data, in which an event occurs, in each of image data collected by a plurality of cameras (image capturing devices) is performed via an AI diagnostic server, a result of the analysis is output at once, and a corresponding script can be accessed only from a backend and cannot be accessed from an external session, so that a control can be more easily and effectively performed.

Description

로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법Robot recognition platform, its system and its diagnostic method
본 발명은 로봇 인지용 플랫폼, 로봇 인지용 플랫폼 시스템 및 로봇 인지용 플랫폼 시스템의 진단 방법에 관한 것으로, 더 상세하게는, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하는 로봇 인지용 플랫폼, 로봇 인지용 플랫폼 시스템 및 로봇 인지용 플랫폼 시스템의 진단 방법에 관한 것이다.The present invention relates to a robot recognition platform, a robot recognition platform system, and a method for diagnosing a robot recognition platform system. More specifically, an event occurs in each image data collected from a plurality of cameras (image taking apparatus). The present invention relates to a robot recognition platform, a robot recognition platform system, and a robot recognition platform system diagnostic method for analyzing a specific data analysis through an AI diagnostic server.
공공 장소, 사무실, 주택, 우범 지역 등에는 범죄를 예방하고 보안을 강화하기 위해, 다수의 감시 카메라를 설치하여 동시에 운영하고 있다.In order to prevent crime and enhance security in public places, offices, houses, and vulnerable areas, multiple surveillance cameras are installed and operated at the same time.
이러한 다수의 감시 카메라를 통해 실시간으로 촬영되어 획득된 각각의 영상 정보는 관제실의 내부에 마련된 관제 모니터에 표시된다.Each image information acquired in real time through a plurality of surveillance cameras is displayed on a control monitor provided inside the control room.
이때, 관제 모니터의 화면은 감시 카메라의 수에 대응하여 하드웨어 또는 소프트웨어 방식으로 분할 구성되어 각각의 영상 정보가 상호 구분되게 관제 모니터에 표출되게 된다.At this time, the screen of the control monitor is divided into hardware or software according to the number of surveillance cameras, so that each video information is displayed on the control monitor so as to be distinguished from each other.
그러나 감시 카메라 수가 많을 경우 감시 카메라 수만큼의 영상 정보가 관제 모니터에 한번에 표출되면서 네트워크상 트래픽이 발생할 수 있고, 이에 의해 감시 카메라가 제공하는 영상 정보를 관제 모니터가 제대로 수신하지 못함으로써, 범죄 예방 및 보안 강화를 달성하지 못하는 문제점이 있었다.However, if the number of surveillance cameras is large, the video information as many as the number of surveillance cameras is displayed on the control monitor at one time, and traffic on the network may occur. As a result, the control monitor does not properly receive the video information provided by the surveillance camera, thereby preventing crime and There was a problem that security enhancement could not be achieved.
또한, 기존의 관제 시스템은 카메라가 제공하는 영상 정보를 그대로 관제 모니터에 표시하기 때문에, 표시되는 영상 데이터에 대한 분석 자료가 미비한 문제점이 있었다.In addition, since the existing control system displays the image information provided by the camera on the control monitor as it is, there is a problem in that the analysis data for the displayed image data is insufficient.
상기한 바와 같은 종래의 문제점을 해결하기 위한 본 발명은 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있도록 하는 로봇 인지용 플랫폼, 로봇 인지용 플랫폼 시스템 및 로봇 인지용 플랫폼 시스템의 진단 방법을 제공하는 것을 목적으로 한다.The present invention for solving the conventional problems as described above analyzes the analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) through the AI diagnostic server, and the analysis results The robot recognition platform, the robot recognition platform system, and the robot recognition platform system that can perform the control more easily and effectively by outputting at once and accessing the script only from the back end and not from the external session. It is an object to provide a diagnostic method of.
상기 목적을 달성하기 위해, 본 발명에 따른 로봇 인지용 플랫폼 시스템은, 복수의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n)로부터 영상 데이터를 수집하는 영상 데이터 수집부(100)와, 상기 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼(200)과, 상기 로봇 인지용 플랫폼(200)으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼(200)에 응답하는 AI 진단 서버(400)와, 상기 AI 진단 서버(400)로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼(200)에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부(300)를 포함한다.In order to achieve the above object, the robot recognition platform system according to the present invention, image data collecting image data from a plurality of image taking devices (100-1, 100-2, 100-3, ..., 100-n) The collection unit 100, the robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100, and the specific request requested from the robot recognition platform 200 AI diagnostic server 400 that performs data analysis and responds to the robot recognition platform 200 and receives the result from the AI diagnostic server 400 and the robot recognition platform 200 It includes a remote control controller 300 for controlling or remotely controlling the image data by accessing.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 원격 제어 관제부(300)에 의해 상기 로봇 인지용 플랫폼(200)에 상기 영상 데이터 수집부(100)의 영상촬영장치 중 하나의 영상촬영장치의 호스트 정보를 등록하면, 상기 로봇 인지용 플랫폼(200)에서 해당 영상촬영장치의 스트리밍에 접속하여 관제 세션을 준비하는 것이 바람직하다.In addition, in the robot recognition platform system according to the present invention, by the remote control control unit 300, the image recognition device of one of the image capture device of the image data collection unit 100 to the robot recognition platform 200 When registering the host information of, it is preferable to prepare a control session by accessing the streaming of the corresponding image photographing device from the robot recognition platform 200.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 호스트 정보는 해당 영상촬영장치의 네트워크에 디디엔에스(DDNS: Dynamic Domain name system)와 포트 포워딩을 통해 고유의 호스트 정보로 설정되는 것이 바람직하다.In addition, in the robot recognition platform system according to the present invention, the host information is preferably set to unique host information through DNS (Dynamic Domain Name System) and port forwarding in the network of the corresponding image capturing apparatus. .
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 등록된 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 웹 소켓에 의해 실행되면 상기 호스트 정보가 자동으로 인식되어 상기 로봇 인지용 플랫폼(200)에 등록되는 것이 바람직하다.In addition, in the robot recognition platform system according to the present invention, when a command for acquiring a unique serial number of a registered corresponding image taking device is executed by a web socket, the host information is automatically recognized and the robot recognition platform 200 ).
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션을 활성화하고, 상기 로봇 인지용 플랫폼(200)에 등록된 상기 호스트 정보가 확인되고, 해당 영상촬영장치의 네트워크에 이상이 없을 경우, 활성화된 상기 스트리밍 채널 세션은 상기 로봇 인지용 플랫폼(200)에 접속한 상기 원격 제어 관제부(300)에 의해 실시간 관제가 이루어지는 것이 바람직하다.In addition, in the robot recognition platform system according to the present invention, the robot recognition platform 200 activates a streaming channel session of the corresponding corresponding image taking device, and the host information registered in the robot recognition platform 200. When it is confirmed, and there is no abnormality in the network of the corresponding image taking device, it is preferable that the activated streaming channel session is controlled in real time by the remote control control unit 300 connected to the robot recognition platform 200. Do.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션과, 명령어 채널 세션을 활성화하고, 상기 로봇 인지용 플랫폼(200)이 상기 영상 데이터를 진단하기 위해 상기 AI 진단 서버(400)에 분석 요청하면, 상기 AI 진단 서버(400)는 분석 결과를 제이슨 포맷(json-format)으로 상기 로봇 인지용 플랫폼(200)에 응답하는 것이 바람직하다.In addition, in the robot recognition platform system according to the present invention, the robot recognition platform 200 activates a streaming channel session and a command channel session of a registered corresponding image taking device, and the robot recognition platform 200 is When an analysis request is made to the AI diagnosis server 400 to diagnose the image data, the AI diagnosis server 400 responds to the robot recognition platform 200 in the Jason format (json-format). desirable.
상기 목적을 달성하기 위해, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법으로서, 복수의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n)로부터 영상 데이터를 수집하는 영상 데이터 수집부(100)와, 상기 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼(200)과, 상기 로봇 인지용 플랫폼(200)으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼(200)에 응답하는 AI 진단 서버(400)와, 상기 AI 진단 서버(400)로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼(200)에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부(300)를 포함하는 로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법은, 상기 원격 제어 관제부(300)가 상기 로봇 인지용 플랫폼(200)에 접속하여 관제하고 있는 해당 영상촬영장치의 처리부(110)에 스냅숏(snapshot) 명령을 전달하는 제 1 단계(S1)와, 상기 데이터 수집부(100)의 처리부(110)에 의해 상기 스냅숏 명령을 해당 영상촬영장치에 요청하는 제 2 단계(S2)와, 해당 영상촬영장비에 의해 실행된 상기 스냅숏 실행 결과를 상기 처리부(110)에 전달하는 제 3 단계(S3)와, 상기 처리부(110)는 해당 영상촬영장비에 의해 실행된 상기 스냅숏의 이미지를 저장하고, 상기 이미지를 분석하기 위해 이미지 에이전트(120)에 분석을 요청하는 제 4 단계(S4)를 포함한다.In order to achieve the above object, as a diagnostic method of the robot recognition platform system according to the present invention, image data is collected from a plurality of image photographing devices (100-1, 100-2, 100-3, ..., 100-n) Request from the robot data recognition platform 100 and the robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100, and the robot recognition platform 200 Performs analysis of the specific data, and the AI diagnostic server 400 responds to the robot recognition platform 200, and receives the result from the AI diagnostic server 400, and recognizes the robot. A diagnostic method for analyzing specific data of a platform system for robot recognition, including a remote control controller 300 for controlling or remotely controlling the image data by accessing the platform 200, includes the remote control controller 300 The first step (S1) of connecting to the robot recognition platform 200 and transmitting a snapshot command to the processing unit 110 of the corresponding image capturing apparatus under control, and the data collection unit 100 A second step (S2) of requesting the snapshot command to the corresponding image photographing apparatus by the processing unit 110; and a third step of transmitting the snapshot execution result executed by the corresponding image photographing equipment to the processing unit 110 Step (S3), and the processing unit 110 stores the image of the snapshot executed by the corresponding imaging device, and a fourth step (S4) of requesting analysis to the image agent 120 to analyze the image ).
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법에서, 상기 제 4 단계(S5) 이후, 상기 이미지 에이전트(120)는 상기 로봇 인지용 플랫폼(200)에 상기 이미지를 전달함과 아울러 상기 분석을 위한 요청 명령을 전달하는 제 5 단계(S5)와, 상기 로봇 인지용 플랫폼(200)은 전달받은 이미지를 저장함과 아울러 상기 AI 진단 서버(400)에 상기 분석을 요청하는 제 6 단계(S6)를 더 포함하는 것이 바람직하다.In addition, in the diagnostic method of the robot recognition platform system according to the present invention, after the fourth step (S5), the image agent 120 delivers the image to the robot recognition platform 200 and analyzes the image. A fifth step (S5) of transmitting a request command for the, and the robot recognition platform 200 stores the received image and a sixth step of requesting the AI diagnosis server 400 for the analysis (S6). It is preferable to further include.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법에서, 상기 제 6 단계(S6) 이후, 상기 AI 진단 서버(400)는 요청받은 상기 이미지의 분석 결과를 상기 로봇 인지용 플랫폼(200)으로 전달하는 제 7 단계(S7)와, 상기 로봇 인지용 플랫폼(200)은 상기 분석 결과를 상기 이미지 에이전트(120)에 응답하는 제 8 단계(S8)를 더 포함하는 것이 바람직하다.In addition, in the diagnostic method of the robot recognition platform system according to the present invention, after the sixth step (S6), the AI diagnosis server 400 sends the analysis result of the requested image to the robot recognition platform 200. It is preferable that the seventh step (S7) of transferring and the robot recognition platform 200 further include an eighth step (S8) of responding the analysis result to the image agent 120.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법에서, 상기 제 8 단계(S8) 이후, 상기 이미지 에이전트(120)는 상기 처리부(110)에 상기 이미지와, 상기 이미지에 대한 분석 결과를 함께 전달하는 제 9 단계(S9)와, 상기 처리부(110)는 명령을 전달한 상기 원격 제어 관제부(300)의 화면에 상기 이미지와, 상기 이미지에 대한 분석 결과를 표시하는 제 10 단계(S10)를 더 포함하는 것이 바람직하다.In addition, in the method for diagnosing the platform system for robot recognition according to the present invention, after the eighth step (S8), the image agent 120 includes the image and the analysis result of the image in the processing unit 110. The ninth step (S9) of transferring, and the processing unit 110 displays the image on the screen of the remote control control unit 300 that has transmitted the command, and the tenth step (S10) of displaying the analysis result of the image. It is preferred to further include.
상기 목적을 달성하기 위해, 본 발명에 따른 로봇 인지용 플랫폼은, IP 기반 네트워크 상에서 영상촬영장치로부터 수집된 영상 데이터의 JPEG 프레임을 원격 제어 관제부(300)에서 실시간으로 관제하도록 하는 스트리머(210)와, 상기 영상촬영장치로부터 전달받는 영상 데이터를 업로드하거나 또는 AI 진단 서버(400)에 분석을 요청하는 백엔드(230)를 포함한다.In order to achieve the above object, the robot recognition platform according to the present invention, the streamer 210 to control the JPEG frame of the image data collected from the image capture device on the IP-based network in real time in the remote control control unit 300 And a backend 230 for uploading image data received from the image pickup device or requesting analysis from the AI diagnosis server 400.
또한, 본 발명에 따른 로봇 인지용 플랫폼에서, 상기 스트리머(210)는 상기 영상촬영장치 내부에서 실행되는 스트림 서버와 이미지 에이전트를 실행 또는 중지시키고, 호스트 설정 정보를 지정하는 스크립트(220)에 의해 수행되는 것이 바람직하다.In addition, in the robot recognition platform according to the present invention, the streamer 210 is executed by a script 220 that executes or stops a stream server and an image agent running inside the image photographing device, and designates host setting information. It is preferably carried out.
또한, 본 발명에 따른 로봇 인지용 플랫폼에서, 상기 백엔드(230)는 상기 영상촬영장치에서 업로드한 상기 영상 데이터를 AI 진단 서버(400)에 분석 요청하고, 그 결과를 제이슨 포맷(json-format)으로 만드는 분석 스크립트(240)에 의해 수행되는 것이 바람직하다.In addition, in the robot recognition platform according to the present invention, the back end 230 requests analysis of the image data uploaded from the image photographing device to the AI diagnosis server 400, and the result is Jason-format. It is preferably performed by the analysis script 240 made of.
기타 실시예의 구체적인 사항은 "발명을 실시하기 위한 구체적인 내용" 및 첨부 "도면"에 포함되어 있다.The specific details of the other embodiments are included in the "specific contents for carrying out the invention" and the attached "drawings".
본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 각종 실시예를 참조하면 명확해질 것이다.Advantages and/or features of the present invention and methods for achieving them will become apparent by referring to various embodiments described in detail below with reference to the accompanying drawings.
그러나, 본 발명은 이하에서 개시되는 각 실시예의 구성만으로 한정되는 것이 아니라 서로 다른 다양한 형태로도 구현될 수도 있으며, 단지 본 명세서에서 개시한 각각의 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구범위의 각 청구항의 범주에 의해 정의될 뿐임을 알아야 한다.However, the present invention is not limited to the configuration of each embodiment disclosed below, but may also be implemented in various different forms. Each embodiment disclosed in the present specification makes the disclosure of the present invention complete, and It is to be understood that the scope of the present invention is provided to those of ordinary skill in the art to which the invention pertains, and the invention is only defined by the scope of each claim of the claims.
이상에서 살펴본 바와 같이, 본 발명에 의하면, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있다.As described above, according to the present invention, analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) is analyzed through an AI diagnosis server, and the analysis results are output at once In addition, the script can be accessed only from the backend, and not accessible from external sessions, making control easier and more effective.
도 1은 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템의 전체 구성을 나타내는 시스템 구성도이다. 1 is a system configuration diagram showing the overall configuration of a platform system for robot recognition according to an embodiment of the present invention.
도 2는 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 영상촬영장치의 자동설정을 나타내는 구성도이다.2 is a configuration diagram showing the automatic setting of the image pickup device in the robot recognition platform system according to an embodiment of the present invention.
도 3은 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 영상환경설정 및 스트리밍을 나타내는 구성도이다.3 is a configuration diagram showing image environment setting and streaming in a robot recognition platform system according to an embodiment of the present invention.
도 4는 본 발명의 일 실시 예에 따른 영상자동 송수신 및 진단 프로세스를 나타내는 구성도이다.4 is a block diagram showing an automatic image transmission/reception and diagnostic process according to an embodiment of the present invention.
도 5는 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 진단 프로세스의 전체 흐름을 나타내는 플로어 차트이다.5 is a floor chart showing the overall flow of the diagnostic process in the robot recognition platform system according to an embodiment of the present invention.
도 6은 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 로봇 인지용 플랫폼의 소스 구성을 나타내는 블록도이다.6 is a block diagram illustrating a source configuration of a robot recognition platform in a robot recognition platform system according to an embodiment of the present invention.
본 발명에 따른 로봇 인지용 플랫폼 시스템은, 복수의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n)로부터 영상 데이터를 수집하는 영상 데이터 수집부(100)와, 상기 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼(200)과, 상기 로봇 인지용 플랫폼(200)으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼(200)에 응답하는 AI 진단 서버(400)와, 상기 AI 진단 서버(400)로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼(200)에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부(300)를 포함한다.The platform system for robot recognition according to the present invention includes an image data collection unit 100 that collects image data from a plurality of image photographing devices 100-1, 100-2, 100-3, ..., 100-n, The robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100, and the analysis of the specific data requested from the robot recognition platform 200, AI diagnostic server 400 responding to the result of the robot recognition platform 200, and receiving the result from the AI diagnostic server 400, and accessing the robot recognition platform 200 to access the image data It includes a remote control control unit 300 to control or remote control.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법으로서, 복수의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n)로부터 영상 데이터를 수집하는 영상 데이터 수집부(100)와, 상기 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼(200)과, 상기 로봇 인지용 플랫폼(200)으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼(200)에 응답하는 AI 진단 서버(400)와, 상기 AI 진단 서버(400)로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼(200)에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부(300)를 포함하는 로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법은, 상기 원격 제어 관제부(300)가 상기 로봇 인지용 플랫폼(200)에 접속하여 관제하고 있는 해당 영상촬영장치의 처리부(110)에 스냅숏(snapshot) 명령을 전달하는 제 1 단계(S1)와, 상기 데이터 수집부(100)의 처리부(110)에 의해 상기 스냅숏 명령을 해당 영상촬영장치에 요청하는 제 2 단계(S2)와, 해당 영상촬영장비에 의해 실행된 상기 스냅숏 실행 결과를 상기 처리부(110)에 전달하는 제 3 단계(S3)와, 상기 처리부(110)는 해당 영상촬영장비에 의해 실행된 상기 스냅숏의 이미지를 저장하고, 상기 이미지를 분석하기 위해 이미지 에이전트(120)에 분석을 요청하는 제 4 단계(S4)를 포함한다.In addition, as a diagnostic method of the robot recognition platform system according to the present invention, an image data collection unit that collects image data from a plurality of image photographing devices (100-1, 100-2, 100-3, ..., 100-n) The robot recognition platform 200 requesting analysis of specific data among the image data collected from the image data collection unit 100 and the specific data requested from the robot recognition platform 200 AI analysis server 400 that performs analysis, and responds to the robot recognition platform 200, and receives the results from the AI diagnosis server 400 and the robot recognition platform 200. A diagnostic method for analyzing specific data of the platform system for robot recognition including the remote control controller 300 for controlling or remotely controlling the image data by accessing the remote control controller 300 for the robot recognition A first step (S1) of transmitting a snapshot command to the processing unit 110 of the corresponding image photographing apparatus connected to the platform 200 and being controlled, and to the processing unit 110 of the data collection unit 100 A second step (S2) of requesting the snapshot command to the corresponding image photographing apparatus, and a third step (S3) of passing the snapshot execution result executed by the corresponding image photographing equipment to the processing unit 110. , The processing unit 110 includes a fourth step (S4) of storing the image of the snapshot executed by the corresponding image photographing equipment and requesting the image agent 120 to analyze the image.
또한, 본 발명에 따른 로봇 인지용 플랫폼은, IP 기반 네트워크 상에서 영상촬영장치로부터 수집된 영상 데이터의 JPEG 프레임을 원격 제어 관제부(300)에서 실시간으로 관제하도록 하는 스트리머(210)와, 상기 영상촬영장치로부터 전달받는 영상 데이터를 업로드하거나 또는 AI 진단 서버(400)에 분석을 요청하는 백엔드(230)를 포함한다.In addition, the robot recognition platform according to the present invention, a streamer 210 to control the JPEG frame of the image data collected from the image taking device on the IP-based network in real time in the remote control controller 300, and the image It includes a back end 230 for uploading image data received from the imaging device or requesting analysis from the AI diagnosis server 400.
본 발명을 상세하게 설명하기 전에, 본 명세서에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 무조건 한정하여 해석되어서는 아니되며, 본 발명의 발명자가 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 각종 용어의 개념을 적절하게 정의하여 사용할 수 있고, 더 나아가 이들 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 함을 알아야 한다.Before describing the present invention in detail, the terms or words used in this specification should not be interpreted as being unconditionally limited in a conventional or lexical sense, and the inventor of the present invention may explain his or her invention in the best way. It should be understood that the concept of various terms can be properly defined and used, and furthermore, these terms or words should be interpreted as meanings and concepts consistent with the technical spirit of the present invention.
즉, 본 명세서에서 사용된 용어는 본 발명의 바람직한 실시예를 설명하기 위해서 사용되는 것일 뿐이고, 본 발명의 내용을 구체적으로 한정하려는 의도로 사용된 것이 아니며, 이들 용어는 본 발명의 여러 가지 가능성을 고려하여 정의된 용어임을 알아야 한다.That is, the terms used in this specification are only used to describe preferred embodiments of the present invention, and are not intended to specifically limit the contents of the present invention, and these terms are used to describe various possibilities of the present invention. It should be understood that this is a term defined in consideration.
또한, 본 명세서에 있어서, 단수의 표현은 문맥상 명확하게 다른 의미로 지시하지 않는 이상, 복수의 표현을 포함할 수 있으며, 유사하게 복수로 표현되어 있다고 하더라도 단수의 의미를 포함할 수 있음을 알아야 한다.In addition, in this specification, it is to be understood that a singular expression may include a plurality of expressions, unless the context clearly indicates otherwise, and may include the meaning of the singular even though they are similarly expressed in plural. do.
본 명세서의 전체에 걸쳐서 어떤 구성 요소가 다른 구성 요소를 "포함"한다고 기재하는 경우에는, 특별히 반대되는 의미의 기재가 없는 한 임의의 다른 구성 요소를 제외하는 것이 아니라 임의의 다른 구성 요소를 더 포함할 수도 있다는 것을 의미할 수 있다.When describing a component as "comprising" another component throughout this specification, the component is further excluded from any other component unless specifically stated to the contrary. It could mean you can do it.
더 나아가서, 어떤 구성 요소가 다른 구성 요소의 "내부에 존재하거나, 연결되어 설치된다"고 기재한 경우에는, 이 구성 요소가 다른 구성 요소와 직접적으로 연결되어 있거나 접촉하여 설치되어 있을 수 있고, 일정한 거리를 두고 이격되어 설치되어 있을 수도 있으며, 일정한 거리를 두고 이격되어 설치되어 있는 경우에 대해서는 해당 구성 요소를 다른 구성 요소에 고정 내지 연결시키기 위한 제 3의 구성 요소 또는 수단이 존재할 수 있으며, 이 제 3의 구성 요소 또는 수단에 대한 설명은 생략될 수도 있음을 알아야 한다.Furthermore, when a component is described as being "existing in or connected to another component", the component may be installed directly connected to or in contact with another component, and may be It may be installed spaced apart from a distance, and when installed spaced apart from a certain distance, there may be a third component or means for fixing or connecting the component to other components. It should be understood that the description of the components or means of 3 may be omitted.
반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결"되어 있다거나, 또는 "직접 접속"되어 있다고 기재되는 경우에는, 제 3의 구성 요소 또는 수단이 존재하지 않는 것으로 이해하여야 한다.On the other hand, if a component is described as being “directly connected” or “directly connected” to another component, it should be understood that the third component or means does not exist.
마찬가지로, 각 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 " ~ 사이에"와 "바로 ~ 사이에", 또는 " ~ 에 이웃하는"과 " ~ 에 직접 이웃하는" 등도 마찬가지의 취지를 가지고 있는 것으로 해석되어야 한다.Similarly, other expressions describing the relationship between each component, such as "between" and "immediately between", or "neighboring to" and "directly neighboring to", have the same effect. It should be interpreted as.
또한, 본 명세서에 있어서 "일면", "타면", "일측", "타측", "제 1", "제 2" 등의 용어는, 사용된다면, 하나의 구성 요소에 대해서 이 하나의 구성 요소가 다른 구성 요소로부터 명확하게 구별될 수 있도록 하기 위해서 사용되며, 이와 같은 용어에 의해서 해당 구성 요소의 의미가 제한적으로 사용되는 것은 아님을 알아야 한다.In addition, in this specification, the terms "one side", "other side", "one side", "other side", "first", "second", etc., if used, this one component for one component It is used to clearly distinguish from other components, and it should be noted that the meanings of the components are not limited by these terms.
또한, 본 명세서에서 "상", "하", "좌", "우" 등의 위치와 관련된 용어는, 사용된다면, 해당 구성 요소에 대해서 해당 도면에서의 상대적인 위치를 나타내고 있는 것으로 이해하여야 하며, 이들의 위치에 대해서 절대적인 위치를 특정하지 않는 이상은, 이들 위치 관련 용어가 절대적인 위치를 언급하고 있는 것으로 이해하여서는 아니된다.In addition, in the present specification, terms related to positions such as “upper”, “lower”, “left”, and “right”, if used, should be understood as indicating relative positions in corresponding drawings with respect to corresponding components, Unless an absolute position is specified for their position, these position-related terms should not be understood as referring to an absolute position.
더욱이, 본 발명의 명세서에서는, "~부", "~기", "모듈", "장치" 등의 용어는, 사용된다면, 하나 이상의 기능이나 동작을 처리할 수 있는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 결합으로 구현될 수 있음을 알아야 한다.Moreover, in the specification of the present invention, terms such as “~ unit”, “~ group”, “module”, and “device”, if used, refer to a unit capable of processing one or more functions or operations, which are hardware. Or, it should be understood that it may be implemented in software, or a combination of hardware and software.
또한, 본 명세서에서는 각 도면의 각 구성 요소에 대해서 그 도면 부호를 명기함에 있어서, 동일한 구성 요소에 대해서는 이 구성 요소가 비록 다른 도면에 표시되더라도 동일한 도면 부호를 가지고 있도록, 즉 명세서 전체에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지시하고 있다.In addition, in this specification, in designating reference numerals for each component in each drawing, for the same component, the component has the same reference number even though it is displayed in different drawings, that is, the same reference throughout the specification. Reference numerals denote the same components.
본 명세서에 첨부된 도면에서 본 발명을 구성하는 각 구성 요소의 크기, 위치, 결합 관계 등은 본 발명의 사상을 충분히 명확하게 전달할 수 있도록 하기 위해서 또는 설명의 편의를 위해서 일부 과장 또는 축소되거나 생략되어 기술되어 있을 수 있고, 따라서 그 비례나 축척은 엄밀하지 않을 수 있다.In the drawings attached to the present specification, the size, position, and coupling relationship of each component constituting the present invention may be partially exaggerated, reduced, or omitted in order to sufficiently convey the spirit of the present invention or for convenience of explanation. It may be described, so its proportions or scale may not be strict.
또한, "프레임부"는 제1 프레임부 및 제2 프레임부를 포함하는 단위를 의미하는 것으로 이해되어야 하며, "칸막이 유닛"은 "도어부" 및 "포스트부"를 포함하는 단위를 의미하는 것으로 이해되어야 한다.In addition, the "frame part" should be understood to mean a unit including the first frame part and the second frame part, and the "dividing unit" is understood to mean a unit including the "door part" and the "post part". Should be.
또한, 이하에서, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 구성, 예를 들어, 종래 기술을 포함하는 공지 기술에 대한 상세한 설명은 생략될 수도 있다.In addition, in the following, in describing the present invention, a detailed description of a configuration determined to unnecessarily obscure the subject matter of the present invention, for example, a known technology including the conventional technology may be omitted.
이하, 본 발명의 실시예에 대해 관련 도면들을 참조하여 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to related drawings.
도 1은 본 발명에 따른 로봇 인지용 플랫폼 시스템의 전체 구성을 나타내는 시스템 구성도이다.1 is a system configuration diagram showing the overall configuration of a robot recognition platform system according to the present invention.
도 1을 참조하면, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)은, 영상 데이터 수집부(100)와, 로봇 인지용 플랫폼(200)과, 원격 제어 관제부(300)와, AI 진단 서버(400)를 포함한다.Referring to FIG. 1, the robot recognition platform system 1000 according to the present invention includes an image data collection unit 100, a robot recognition platform 200, a remote control control unit 300, and an AI diagnosis server. 400.
영상 데이터 수집부(100)는 복수의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n), 예를 들면 복수의 카메라로부터 영상 데이터를 수집하는 역할을 수행한다. 즉, 복수의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n)는 다수의 영역에 설치되는 각각의 카메라에서 촬영되어 획득된 영상 정보를 수집한다. 이러한 영상 정보는 컬러 영상, 그레이 영상, 이진 영상 등 중 하나의 영상 포맷 형식을 가진다.The image data collection unit 100 serves to collect image data from a plurality of image photographing apparatuses 100-1, 100-2, 100-3, ..., 100-n, for example, a plurality of cameras. That is, the plurality of image photographing apparatuses 100-1, 100-2, 100-3, ..., 100-n collect image information obtained by being photographed by each camera installed in a plurality of areas. The image information has one image format format such as a color image, a gray image, and a binary image.
로봇 인지용 플랫폼(200)은 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 역할을 수행한다. 이러한 로봇 인지용 플랫폼(200)은 영상 데이터 수집부(100)를 통해 수집되는 각각의 영상 정보를 개별적으로 분석하여 영상 정보에 나타나는 이벤트를 감지하는 이벤트 감지부나, 이벤트 감지부에 의해 감지된 이벤트와 관련된 영상 정보가 관제 영상의 집중 관제 영역에 표출되도록 각 영상 정보의 표출 영역을 결정하는 표출 영역 결정부 등을 포함할 수 있다.The robot recognition platform 200 serves to request analysis of specific data among image data collected from the image data collection unit 100. The robot recognition platform 200 analyzes each image information collected through the image data collection unit 100 individually and detects an event appearing in the image information, or an event detected by the event detection unit. It may include a display area determining unit for determining the display area of each image information so that the related image information is displayed in the centralized control area of the control image.
여기서, 이벤트란 각각의 영상 정보에서 나타나는 객체의 움직임을 의미한다. 즉, 이벤트 감지부는 영상 정보를 분석하여 소정의 픽셀 그룹으로 이루어진 객체를 인식하고, 인식된 객체의 움직임이 발생하면 이벤트가 발생한 것으로 간주하고 이벤트에 대응되는 감지 신호를 생성한다. 이때, 감지 신호에는 어느 영상 정보에서 이벤트가 발생한 것인지를 구분할 수 있고 이벤트가 언제 발생한 것인지를 구분할 수 있도록 인덱스 정보와 시각 정보가 함께 포함될 수 있다.Here, the event means the movement of the object appearing in each image information. That is, the event detection unit analyzes the image information, recognizes an object composed of a predetermined pixel group, and when the detected object movement occurs, considers the event to be generated and generates a detection signal corresponding to the event. At this time, the detection signal may include index information and time information together to distinguish from which image information an event has occurred and when an event has occurred.
또한, 표출 영역 결정부는 단위 시간에 이벤트를 감지한 영상 정보가 관제 영상의 집중 관제 영역에 표출되도록 이벤트와 관련된 영상 정보의 표출 영역과, 이벤트와 관련되지 않은 나머지 영상 정보의 표출 영역을 결정한다. 이때, 이벤트와 관련된 영상 정보는 관제 영상의 집중 관제 영역이 표출 영역으로 결정되고, 이벤트와 관련되지 않은 나머지 영상 정보들은 집중 관제 영역이 아닌 관제 영상의 나머지 영역이 표출 영역으로 결정된다.In addition, the display area determining unit determines the display area of the video information related to the event and the display area of the remaining video information not related to the event so that the video information detecting the event in a unit time is displayed in the centralized control area of the control video. At this time, for the video information related to the event, the centralized control area of the control image is determined as the display area, and the rest of the video information not related to the event is determined as the display area, not the centralized control area.
AI 진단 서버(400)는 로봇 인지용 플랫폼(200)으로부터 요청된 특정 데이터의 분석을 수행하고, 그 결과를 로봇 인지용 플랫폼(200)에 응답하는 역할을 수행한다. 여기서, 특정 데이터란 상술한 바와 같이 영상 정보에 나타나는 이벤트일 수 있다. 즉, 로봇 인지용 플랫폼(200)에서 인식된 객체의 움직임이 발생하면 이벤트가 발생한 것으로 간주하고 이 이벤트에 대한 분석을 AI 진단 서버(400)에 요청하게 된다. AI 진단 서버(400)는 이러한 이벤트를 딥러닝 등의 방식으로 학습시키고, 학습된 이벤트에 대한 분석 결과를 로봇 인지용 플랫폼(200)에 응답하게 된다. 이때, 이벤트에 대한 분석 결과로는 객체의 움직임, 객체의 이동 경로, 조명 상태, 카메라의 진동 상태, 환경 요인 등일 수 있다. 즉, 객체의 움직임뿐만 아니라 객체의 움직임에 영향을 미치는 조건들이 분석 결과로 로봇 인지용 플랫폼(200)에 응답할 수 있다.The AI diagnosis server 400 performs analysis of specific data requested from the robot recognition platform 200, and serves to respond to the result of the robot recognition platform 200. Here, the specific data may be an event appearing in image information as described above. That is, when the movement of the object recognized by the robot recognition platform 200 occurs, the event is considered to have occurred, and the AI diagnosis server 400 is requested to analyze the event. The AI diagnostic server 400 learns these events in a deep learning or the like manner, and responds to the robot recognition platform 200 for analysis results of the learned events. At this time, the analysis result of the event may be an object movement, an object movement path, an illumination state, a vibration state of the camera, or an environmental factor. That is, conditions affecting the movement of the object as well as the movement of the object may respond to the robot recognition platform 200 as an analysis result.
원격 제어 관제부(300)는 AI 진단 서버(400)로부터 분석 결과를 수신함과 아울러 로봇 인지용 플랫폼(200)에 접속하여 영상 데이터를 관제하거나 또는 원격 제어하는 역할을 수행한다. 여기서, 원격 제어 관제부(300)에는 로봇 인지용 플랫폼(200)에 의해 표출 영역으로 결정되는 집중 관제 영역이 관제 영상으로 관제된다. 즉, 관리자는 원격 제어 관제부(300)의 관제 모니터에 표출되는 관제 영상 중 객체의 움직임에 따른 이벤트가 감지된 집중 관제 영역에 표출되는 영상 정보를 주시하여 관제함으로써, 피로감을 줄이면서 용이하고 효과적으로 관제를 행할 수 있는 효과가 있다.The remote control control unit 300 receives the analysis result from the AI diagnosis server 400 and accesses the robot recognition platform 200 to control or remotely control image data. Here, in the remote control control unit 300, the centralized control area determined as the display area is controlled by the robot recognition platform 200 as a control image. That is, the administrator observes and controls the video information displayed in the central control area in which the event according to the movement of the object is detected among the control images displayed on the control monitor of the remote control controller 300, thereby reducing fatigue and easily and effectively There is an effect that can be controlled.
도 2는 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 영상촬영장치의 자동설정을 나타내는 구성도이다.2 is a configuration diagram showing the automatic setting of the image pickup device in the robot recognition platform system according to the present invention.
도 2를 참조하여, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 복수의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n) 각각을 자동으로 설정하는 구성에 대해 설명한다.Referring to FIG. 2, in the robot recognition platform system 1000 according to the present invention, each of a plurality of image photographing devices 100-1, 100-2, 100-3, …, 100-n is automatically set. The configuration will be described.
우선, 원격 제어 관제부(300)에 의해 로봇 인지용 플랫폼(200)에 영상 데이터 수집부(100)의 영상촬영장치(100-1, 100-2, 100-3, …, 100-n) 중 하나의 영상촬영장치의 호스트 정보를 등록하면, 로봇 인지용 플랫폼(200)에서 해당 영상촬영장치의 스트리밍에 접속하여 관제 세션을 준비한다.First, by the remote control control unit 300 of the image capturing device (100-1, 100-2, 100-3, ..., 100-n) of the image data collection unit 100 to the robot recognition platform (200) When the host information of one imaging device is registered, the robot recognition platform 200 accesses streaming of the corresponding imaging device to prepare a control session.
이때, 호스트 정보는 해당 영상촬영장치의 네트워크에 DDNS와 포트 포워딩을 통해 고유의 호스트 정보로 설정된다. 여기서, DDNS란 Dynamic DNS(동적 DNS)로, 실시간으로 DNS를 갱신하는 방식이다. 주로 도메인의 IP가 유동적인 경우 사용되며, IP가 변경되어도 DDNS로 설정한 도메인 값은 변하지 않기 때문에 용이하게 접속이 가능하다. 또한, 포트 포워딩이란 컴퓨터에서 특정 통신 포트를 개방하여 통신이 되도록 하는 방식이다. 즉, 내부 포트를 외부 원격 서버에 전달되도록 지정하거나, 방화벽을 그대로 유지하면서 방화벽의 특정 포트를 내부망의 특정 호스트와 연결시키는 방식이다. 예를 들어, 마이크로소프트 윈도우 XP 서비스 팩 2에 들어간 윈도우 방화벽을 비롯한 대부분의 방화벽 소프트웨어나 인터넷 공유기는 포트 포워딩 메뉴가 있고, 여기에 개방할 포트 번호를 등록하여 사용할 수 있다. 이와 같이, 영상촬영장치의 호스트 정보는 DDNS와 포트 포워딩을 통해 고유의 호스트 정보로 등록시킬 수 있다.At this time, the host information is set as unique host information through DDNS and port forwarding in the network of the corresponding image photographing apparatus. Here, DDNS is Dynamic DNS, which is a method of updating DNS in real time. It is mainly used when the domain's IP is flexible, and even if the IP is changed, the domain value set by DDNS does not change, so connection is easy. Also, port forwarding is a method in which a specific communication port is opened in a computer for communication. That is, it is a method to designate the internal port to be transmitted to an external remote server, or to connect a specific port of the firewall to a specific host in the internal network while maintaining the firewall. For example, most firewall software or Internet routers, including Windows Firewall in Microsoft Windows XP Service Pack 2, have a port forwarding menu, and you can register and use the port number to open. As described above, the host information of the image photographing apparatus can be registered as unique host information through DDNS and port forwarding.
이후, 등록된 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 웹 소켓에 의해 실행되면 호스트 정보가 자동으로 인식되어 로봇 인지용 플랫폼(200)에 등록된다. 여기서, 웹 소켓이란, 웹 브라우저와 웹 서버 상에 구현되어 두 지점 간에 실시간 상호 작용하도록 지원한다. 참고로 이러한 웹 소켓 프로토콜은 2011년 인터넷 표준화 기구인 IETF에서(IETF RFC 6455) 표준화되었고, 웹 소켓 응용 프로그래밍 인터페이스(API)는 월드 와이드 웹 컨소시엄인 W3C에서 표준화를 완료했다. 이와 같이 웹 소켓에 의해 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 실행되면, 로봇 인지용 플랫폼(200)에 호스트 정보가 자동으로 등록된다.Thereafter, when a command for acquiring a unique serial number of the registered corresponding image photographing apparatus is executed by a web socket, host information is automatically recognized and registered in the robot recognition platform 200. Here, the web socket is implemented on a web browser and a web server to support real-time interaction between two points. For reference, the web socket protocol was standardized in 2011 by the Internet standardization organization IETF (IETF RFC 6455), and the web socket application programming interface (API) was standardized by the World Wide Web Consortium W3C. As described above, when a command for obtaining a unique serial number of the corresponding image photographing device is executed by the web socket, host information is automatically registered in the robot recognition platform 200.
도 3은 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 영상환경설정 및 스트리밍을 나타내는 구성도이다.3 is a configuration diagram showing image environment setting and streaming in the robot recognition platform system according to the present invention.
도 3을 참조하여, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 영상환경설정 및 스트리밍 구성에 대해 설명한다.Referring to Figure 3, in the robot recognition platform system 1000 according to the present invention, the video environment setting and streaming configuration will be described.
로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션을 활성화한다. 이러한 영상촬영장치는 2개의 채널을 제공하는데, 하나는 스트리밍을 위한 채널이고, 다른 하나는 제어 명령을 위한 채널이다.The robot recognition platform 200 activates the streaming channel session of the registered corresponding image taking device. This video recording apparatus provides two channels, one for streaming and the other for control commands.
영상환경설정과, 스트리밍 구성을 위해, 스트리밍 채널 세션이 활성화되면, 로봇 인지용 플랫폼(200)에 등록된 호스트 정보가 확인되고, 해당 영상촬영장치의 네트워크에 이상이 없을 경우, 활성화된 스트리밍 채널 세션을 통해 로봇 인지용 플랫폼(200)에 접속한 원격 제어 관제부(300)는 실시간 관제를 수행하게 된다. 이때, 영상 데이터 수집부(100)의 처리부(110)는 영상촬영장비를 통해 시리얼 넘버와, 촬영 환경 정보와, 수집 장비 정보와, 자동 촬영 모드를 제공받게 되며, 이러한 정보들과, 촬영 모드를 로봇 인지용 플랫폼(200)에 전달하게 된다.For the video environment setting and streaming configuration, when a streaming channel session is activated, the host information registered in the robot recognition platform 200 is checked, and if there is no abnormality in the network of the corresponding image taking device, the activated streaming channel session The remote control controller 300 connected to the robot recognition platform 200 through performs real-time control. At this time, the processing unit 110 of the image data collection unit 100 is provided with a serial number, shooting environment information, collection equipment information, and an automatic shooting mode through the image photographing equipment. It is delivered to the robot recognition platform 200.
도 4는 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 영상자동 송수신 및 진단 프로세스를 나타내는 구성도이다.4 is a configuration diagram illustrating an automatic image transmission/reception and diagnosis process in a robot recognition platform system according to the present invention.
도 4를 참조하여, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 영상자동 송수신과, 진단 프로세스의 구성에 대해 설명한다.Referring to FIG. 4, in the robot recognition platform system 1000 according to the present invention, the configuration of the automatic image transmission and reception and the diagnostic process will be described.
로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션과, 명령어 채널 세션을 활성화하고, 로봇 인지용 플랫폼(200)이 영상 데이터를 진단하기 위해 AI 진단 서버(400)에 분석 요청하면, AI 진단 서버(400)는 분석 결과를 제이슨 포맷을 통해 로봇 인지용 플랫폼(200)에 응답한다. 여기서, 제이슨 포맷이란, 임베디드 클라이언트(Embedded Client)와 웹 서버 사이에서 통신시 사용하는 프로토콜이다. 본 발명에서는 로봇 인지용 플랫폼(200)이 임베디드 클라이언트의 역할을 수행하고, AI 진단 서버(400)가 웹 서버의 역할을 수행한다. 즉, 로봇 인지용 플랫폼(200)에서 분석을 요청하면, AI 진단 서버(400)에서 분석에 대한 응답을 전달한다.The robot recognition platform 200 activates a streaming channel session and a command channel session of the registered corresponding image taking device, and the robot recognition platform 200 requests analysis from the AI diagnosis server 400 to diagnose image data Then, the AI diagnostic server 400 responds to the robot recognition platform 200 through the Jason format of the analysis result. Here, the Jason format is a protocol used for communication between an embedded client and a web server. In the present invention, the robot recognition platform 200 serves as an embedded client, and the AI diagnosis server 400 serves as a web server. That is, when the robot recognition platform 200 requests analysis, the AI diagnosis server 400 transmits a response to the analysis.
도 5는 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 진단 프로세스의 전체 흐름을 나타내는 플로어 차트이다.5 is a floor chart showing the overall flow of the diagnostic process in the robot recognition platform system according to the present invention.
도 5를 참조하면, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 진단을 위한 프로세스는 다음과 같이 10단계에 의해 수행된다.Referring to FIG. 5, in the robot recognition platform system 1000 according to the present invention, a process for diagnosis is performed by 10 steps as follows.
제 1 단계(S1)에서, 원격 제어 관제부(300)가 로봇 인지용 플랫폼(200)에 접속하여 관제하고 있는 해당 영상촬영장치의 처리부(110)에 스냅숏(snapshot) 명령을 전달한다. 여기서, 스냅숏이란 컴퓨터에서 실행중인 프로그램의 상태를 알아보기 위해 어느 한 순간의 주기억 장치나, 하드웨어 레지스터, 상태 표시기 등의 모든 내용을 포함한 메모리의 현재 상태를 저장하는 것을 말한다. 즉, 시스템이 고장으로 정지했을 때 복구를 위해 주기적으로 스냅숏 저장이 이루어진다.In the first step (S1), the remote control control unit 300 connects to the robot recognition platform 200 and transmits a snapshot command to the processing unit 110 of the corresponding image taking device. Here, the snapshot refers to storing the current state of the memory including all contents, such as a main memory of one moment, a hardware register, and a status indicator, in order to check the state of a program running on a computer. That is, snapshots are periodically saved for recovery when the system is stopped due to a malfunction.
제 2 단계(S2)에서, 데이터 수집부(100)의 처리부(110)는 스냅숏 명령을 해당 영상촬영장치에 요청하고, 제 3 단계(S3)에서, 해당 영상촬영장비에 의해 실행된 스냅숏 명령의 실행 결과를 처리부(110)에 전달한다.In the second step (S2), the processing unit 110 of the data collection unit 100 requests a snapshot command to the corresponding image photographing apparatus, and in the third step (S3), the snapshot executed by the corresponding image photographing equipment The execution result of the command is transmitted to the processing unit 110.
제 4 단계(S4)에서, 처리부(110)가 해당 영상촬영장비에 의해 실행된 스냅숏의 이미지를 저장하고, 이러한 이미지를 분석하기 위해 이미지 에이전트(120)에 분석을 요청하고, 제 5 단계(S5)에서, 이미지 에이전트(120)가 로봇 인지용 플랫폼(200)에 이미지를 전달함과 아울러 분석을 위한 요청 명령을 전달한다.In a fourth step (S4), the processing unit 110 stores an image of a snapshot executed by the corresponding imaging device, requests an analysis from the image agent 120 to analyze the image, and a fifth step ( In S5), the image agent 120 transmits an image to the robot recognition platform 200 and also transmits a request command for analysis.
제 6 단계(S6)에서, 로봇 인지용 플랫폼(200)은 전달받은 이미지를 저장함과 아울러 AI 진단 서버(400)에 분석을 요청하고, 제 7 단계(S7)에서, AI 진단 서버(400)는 요청받은 이미지의 분석 결과를 로봇 인지용 플랫폼(200)으로 전달한다.In the sixth step (S6), the robot recognition platform 200 stores the received image and requests analysis from the AI diagnosis server 400, and in the seventh step (S7), the AI diagnosis server 400 is The analysis result of the requested image is transmitted to the robot recognition platform 200.
제 8 단계(S8)에서, 로봇 인지용 플랫폼(200)은 분석 결과를 이미지 에이전트(120)에 응답하고, 제 9 단계(S9)에서, 이미지 에이전트(120)는 처리부(110)에 이미지와, 이미지에 대한 분석 결과를 함께 전달한다.In the eighth step (S8), the robot recognition platform 200 responds to the analysis result to the image agent 120, and in the ninth step (S9), the image agent 120 and the image to the processing unit 110, The results of the analysis of the images are delivered together.
제 10 단계(S10)에서, 처리부(110)는 명령을 전달한 원격 제어 관제부(300)의 화면에 이미지와, 이미지에 대한 분석 결과를 표시한다.In the tenth step (S10 ), the processing unit 110 displays an image and an analysis result of the image on the screen of the remote control control unit 300 that has transmitted the command.
이와 같은 10단계의 프로세스에 의해, 영상 데이터 수집부(100)로부터 수집한 영상 데이터를 로봇 인지용 플랫폼(200)에 전달하고, 로봇 인지용 플랫폼(200)과, AI 진단 서버(400)는 진단 프로세스를 수행하게 된다.Through this 10-step process, the image data collected from the image data collection unit 100 is transmitted to the robot recognition platform 200, and the robot recognition platform 200 and the AI diagnosis server 400 are diagnosed. Process.
도 6은 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 로봇 인지용 플랫폼의 소스 구성을 나타내는 블록도이다.6 is a block diagram illustrating a source configuration of a robot recognition platform in the robot recognition platform system according to the present invention.
도 6을 참조하면, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 로봇 인지용 플랫폼(200)은 스트리머(210) 서버와, 백엔드(230)서버를 더 포함한다.Referring to FIG. 6, in the robot recognition platform system 1000 according to the present invention, the robot recognition platform 200 further includes a streamer 210 server and a backend 230 server.
스트리머(210)는 IP 기반 네트워크 상에서 영상 데이터의 JPEG 프레임을 원격 제어 관제부(300)에서 실시간으로 관제하도록 한다. 이때, 스트리머(210)는 영상 데이터 수집부(100)의 영상촬영장치 내부에서 실행되는 스트림 서버와 이미지 에이전트를 실행 또는 중지시키고, 호스트 설정 정보를 지정하는 스크립트(220)에 의해 수행된다.The streamer 210 allows the remote control control unit 300 to control the JPEG frame of the image data in real time on the IP-based network. At this time, the streamer 210 is executed by a script 220 that executes or stops a stream server and an image agent that are executed inside the image photographing apparatus of the image data collection unit 100, and specifies host setting information.
좀 더 자세히 설명하면, 스트리머(210)는 오픈소스(mjpg-streamer)를 기반으로 만들어진 서버다. 카메라 모듈을 플러그 인으로 탑재하여 JPEG 프레임을 IP 기반 네트워크상에서 실시간으로 관제할 수 있다. 또한 크롬(Chrome), 파이어폭스(Firefox), VLC, 엠플레이어(mplayer) 등 기타 다양한 환경의 뷰어에서 동작할 수 있도록 영상을 최적화하고 있다. RAM과 CPU가 제한적인 환경에서 동작할 수 있도록 여러 가지 오픈 소스로 이루어진 유틸리티가 함께 탑재된다.In more detail, streamer 210 is a server made based on open source (mjpg-streamer). The camera module can be installed as a plug-in to control JPEG frames in real time on an IP-based network. In addition, the video is optimized to operate in viewers in various other environments such as Chrome, Firefox, VLC, and mplayer. It comes with several open source utilities that allow RAM and CPU to operate in limited environments.
스크립트(220)는 영상촬영장치 내부에서 실행되는 스트림서버와 에이전트를 실행 또는 중지하고 기타 설정 정보를 지정한다. 외부 세션(프론트엔드)에서 접근이 불가능하도록 되어 있고, 반드시 유효한 커맨드를 요청한 세션 또는 시스템을 통해서 실행된다.The script 220 executes or stops a stream server and an agent running inside the image photographing device, and designates other setting information. It is not allowed to be accessed from the external session (front end), and must be executed through the session or system that requested the valid command.
또한, 백엔드(230)는 영상촬영장치로부터 전달받는 영상 데이터를 업로드하거나 또는 AI 진단 서버(400)에 분석을 요청한다. 이때, 백엔드(230)는 영상촬영장치에서 업로드한 영상 데이터를 AI 진단 서버(230)에 분석 요청하고, 그 결과를 제이슨 포맷으로 만드는 분석 스크립트(240)에 의해 수행된다.In addition, the backend 230 uploads the image data received from the imaging device or requests the AI diagnosis server 400 for analysis. At this time, the backend 230 is performed by the analysis script 240 that requests analysis of the image data uploaded from the image pickup device to the AI diagnosis server 230 and makes the result in Jason format.
여기서, 백엔드(230)는 노드 제이 에스(NodeJS)를 사용하여 만들어진 API 처리 전용 서버이다. 미리 정의된 API를 요청 받아 기능을 수행하며, 내부의 라우터에 의해 API 서비스 처리가 구분된다. 멀티세션의 동시접속 또는 동시요청을 처리하기 위해 웹 세션, 웹 소켓, 데이터베이스 세션 등을 모두 연결 풀(Connection-Pool) 방식으로 관리된다. 이때, 운영 장비의 리소스 성능에 따라 풀의 크기를 설정하여 사용한다. 연결 풀 방식이란, 데이터베이스 메모리 내에 있는 데이터베이스 연결들로 된 하나의 캐시를 말한다. 데이터베이스 연결들은 데이터에 대한 요청이 발생하면 재사용되는 것으로, 데이터베이스의 수행 능력을 향상시키기 위해 사용된다. 다음, 연결 풀에서 하나의 연결이 생성되어 풀에 배치되면 새로운 연결이 만들어지지 않도록 재사용하지만 만약에 모든 연결이 사용 중에 있으면 새로운 연결이 만들어져 풀에 추가된다. 연결 풀은 사용자가 데이터베이스 연결을 위해 기다리는 시간을 축소시키기도 한다.Here, the backend 230 is a server dedicated to API processing made using NodeJS. The function is performed by receiving a predefined API request, and the API service processing is classified by an internal router. In order to process multi-session simultaneous access or simultaneous requests, all web sessions, web sockets, and database sessions are managed in a connection-pool method. At this time, the size of the pool is set and used according to the resource performance of the operating equipment. The connection pool method refers to a cache of database connections in database memory. Database connections are reused when a request for data occurs, which is used to improve the performance of the database. Next, when a connection is created in the connection pool and placed in the pool, it is reused so that no new connection is created, but if all connections are in use, a new connection is created and added to the pool. Connection pools also reduce the amount of time users wait for database connections.
영상촬영장치에서 파일 업로드 요청을 받으면 지정한 위치에 업로드한다. 커맨드에 따라 단순히 업로드만 하거나, 업로드 완료 후 AI 진단 서버(400)에 요청까지 수행한다. AI 진단 서버(400)에 업로드 이미지 분석 요청을 하면, 해당 결과가 제이슨 포맷으로 제공되는데 이를 받아서 응답한다. When a video uploading device receives a request to upload a file, it uploads it to a designated location. According to the command, simply upload or perform the request to the AI diagnosis server 400 after the upload is completed. When the request for analysis of the uploaded image is requested to the AI diagnostic server 400, the corresponding result is provided in the Jason format.
분석 스크립트(240)는 영상촬영장치에서 업로드한 이미지를 AI 진단 서버(400)에 진단 요청을 하고, 그 결과를 제이슨 포맷으로 만드는 피톤(python) 스크립트이다. AI 분석 결과는 이미지 상의 정보 등과 같이 다양한 정보를 한번에 출력한다. 해당 스크립트는 백엔드에서만 접근이 가능하고, 프론트엔드 세션에서 사용은 불가능하다.The analysis script 240 is a python script that makes a diagnosis request to the AI diagnosis server 400 for the image uploaded from the image pickup device and makes the result in the Jason format. As a result of AI analysis, various information such as information on an image is output at once. This script can only be accessed from the backend, and cannot be used in the frontend session.
이상에서 살펴본 바와 같이, 본 발명에 의하면, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있다.As described above, according to the present invention, analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) is analyzed through an AI diagnosis server, and the analysis results are output at once In addition, the script can be accessed only from the backend, and not accessible from external sessions, making control easier and more effective.
이상, 일부 예를 들어서 본 발명의 바람직한 여러 가지 실시예에 대해서 설명하였지만, 본 "발명을 실시하기 위한 구체적인 내용" 항목에 기재된 여러 가지 다양한 실시예에 관한 설명은 예시적인 것에 불과한 것이며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이상의 설명으로부터 본 발명을 다양하게 변형하여 실시하거나 본 발명과 균등한 실시를 행할 수 있다는 점을 잘 이해하고 있을 것이다.As described above, although various preferred embodiments of the present invention have been described with some examples, descriptions of various various embodiments described in the “Details for Carrying Out the Invention” section are merely illustrative, and the present invention Those of ordinary skill in the art to which they belong will understand that from the above description, various modifications of the present invention can be carried out or equivalent implementation of the present invention.
또한, 본 발명은 다른 다양한 형태로 구현될 수 있기 때문에 본 발명은 상술한 설명에 의해서 한정되는 것이 아니며, 이상의 설명은 본 발명의 개시 내용이 완전해지도록 하기 위한 것으로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이며, 본 발명은 청구범위의 각 청구항에 의해서 정의될 뿐임을 알아야 한다.In addition, since the present invention can be implemented in various other forms, the present invention is not limited by the above description, and the above description is intended to make the disclosure of the present invention complete, and it is common in the technical field to which the present invention pertains. It should be understood that the present invention is only provided to fully inform the person of knowledge of the scope of the present invention, and the present invention is only defined by each claim of the claims.
본 발명에 의하면, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있다.According to the present invention, an analysis of specific data in which an event occurs among each image data collected from a plurality of cameras (image recording apparatus) is analyzed through an AI diagnostic server, the analysis results are output at once, and the corresponding script is It can be accessed only from the backend, and not from external sessions, making control easier and more effective.

Claims (13)

  1. 복수의 영상촬영장치로부터 영상 데이터를 수집하는 영상 데이터 수집부와,An image data collection unit collecting image data from a plurality of image photographing devices;
    상기 영상 데이터 수집부로부터 수집되는 상기 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼과,A robot recognition platform for requesting analysis of specific data among the image data collected from the image data collection unit,
    상기 로봇 인지용 플랫폼으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼에 응답하는 AI 진단 서버와,An AI diagnostic server that performs analysis of the specific data requested from the robot recognition platform, and responds to the results of the robot recognition platform;
    상기 AI 진단 서버로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부를 포함하는 것을 특징으로 하는,And receiving the result from the AI diagnostic server and accessing the robot recognition platform to control or remotely control the image data.
    로봇 인지용 플랫폼 시스템.Platform system for robot recognition.
  2. 제 1 항에 있어서,According to claim 1,
    상기 원격 제어 관제부에 의해 상기 로봇 인지용 플랫폼에 상기 영상 데이터 수집부의 영상촬영장치 중 하나의 영상촬영장치의 호스트 정보를 등록하면, 상기 로봇 인지용 플랫폼에서 해당 영상촬영장치의 스트리밍에 접속하여 관제 세션을 준비하는 것을 특징으로 하는,When the host information of one of the image photographing apparatuses of the image data collection unit is registered on the robot recognition platform by the remote control controller, the robot recognition platform accesses and controls streaming of the image photographing apparatus. Characterized by preparing a session,
    로봇 인지용 플랫폼 시스템.Platform system for robot recognition.
  3. 제 2 항에 있어서,According to claim 2,
    상기 호스트 정보는 해당 영상촬영장치의 네트워크에 디디엔에스(DDNS: Dynamic Domain Name Systme)와 포트 포워딩을 통해 고유의 호스트 정보로 설정되는 것을 특징으로 하는,The host information is set to unique host information through DNS (Dynamic Domain Name Systme) and port forwarding in the network of the corresponding image capturing apparatus,
    로봇 인지용 플랫폼 시스템.Platform system for robot recognition.
  4. 제 3 항에 있어서,The method of claim 3,
    등록된 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 웹 소켓에 의해 실행되면 상기 호스트 정보가 자동으로 인식되어 상기 로봇 인지용 플랫폼에 등록되는 것을 특징으로 하는,When the command for obtaining the unique serial number of the registered corresponding image taking device is executed by the web socket, the host information is automatically recognized and registered in the robot recognition platform,
    로봇 인지용 플랫폼 시스템.Platform system for robot recognition.
  5. 제 4 항에 있어서,The method of claim 4,
    상기 로봇 인지용 플랫폼은 등록된 해당 영상촬영장치의 스트리밍 채널 세션을 활성화하고,The robot recognition platform activates the streaming channel session of the registered corresponding image taking device,
    상기 로봇 인지용 플랫폼에 등록된 상기 호스트 정보가 확인되고, 해당 영상촬영장치의 네트워크에 이상이 없을 경우, 활성화된 상기 스트리밍 채널 세션은 상기 로봇 인지용 플랫폼에 접속한 상기 원격 제어 관제부에 의해 실시간 관제가 이루어지는 것을 특징으로 하는,When the host information registered on the robot recognition platform is confirmed, and there is no abnormality in the network of the corresponding image capturing apparatus, the activated streaming channel session is real-time by the remote control controller connected to the robot recognition platform. Characterized in that the control is made,
    로봇 인지용 플랫폼 시스템.Platform system for robot recognition.
  6. 제 2 항에 있어서,According to claim 2,
    상기 로봇 인지용 플랫폼은 등록된 해당 영상촬영장치의 스트리밍 채널 세션과, 명령어 채널 세션을 활성화하고,The robot recognition platform activates a streaming channel session and a command channel session of the registered corresponding image taking device,
    상기 로봇 인지용 플랫폼이 상기 영상 데이터를 진단하기 위해 상기 AI 진단 서버에 분석 요청하면, 상기 AI 진단 서버는 분석 결과를 제이슨 포맷으로 상기 로봇 인지용 플랫폼에 응답하는 것을 특징으로 하는,When the robot recognition platform requests analysis from the AI diagnosis server to diagnose the image data, the AI diagnosis server responds to the robot recognition platform in Jason format.
    로봇 인지용 플랫폼 시스템.Platform system for robot recognition.
  7. 복수의 영상촬영장치로부터 영상 데이터를 수집하는 영상 데이터 수집부와, 상기 영상 데이터 수집부로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼과, 상기 로봇 인지용 플랫폼으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼에 응답하는 AI 진단 서버와, 상기 AI 진단 서버로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부를 포함하는 로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법으로서,An image data collection unit for collecting image data from a plurality of image photographing devices, a robot recognition platform requesting analysis of specific data among image data collected from the image data collection unit, and the robot requested for the robot recognition platform Performs analysis of specific data, receives the results from the AI diagnosis server and AI diagnosis server responding to the robot recognition platform, and accesses the robot recognition platform to control or remotely control the image data. As a diagnostic method for the analysis of specific data of the platform system for robot recognition including a remote control control unit to control,
    상기 원격 제어 관제부가 상기 로봇 인지용 플랫폼에 접속하여 관제하고 있는 해당 영상촬영장치의 처리부에 스냅숏(snapshot) 명령을 전달하는 제 1 단계(S1)와,A first step (S1) of transmitting a snapshot command to a processing unit of the corresponding image capturing apparatus which is controlled by the remote control control unit accessing the robot recognition platform;
    상기 영상 데이터 수집부의 처리부에 의해 상기 스냅숏 명령을 해당 영상촬영장치에 요청하는 제 2 단계(S2)와,A second step (S2) of requesting the snapshot command to the corresponding image photographing apparatus by the processing unit of the image data collection unit;
    해당 영상촬영장비에 의해 실행된 상기 스냅숏 실행 결과를 상기 처리부에 전달하는 제 3 단계(S3)와,A third step (S3) of transmitting the snapshot execution result executed by the corresponding imaging device to the processing unit;
    상기 처리부는 해당 영상촬영장비에 의해 실행된 상기 스냅숏의 이미지를 저장하고, 상기 이미지를 분석하기 위해 이미지 에이전트에 분석을 요청하는 제 4 단계(S4)를 포함하는 것을 특징으로 하는,The processing unit includes a fourth step (S4) of storing an image of the snapshot executed by the corresponding image photographing equipment and requesting an analysis from the image agent to analyze the image,
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.A diagnostic method for the analysis of specific data of the robot recognition platform system.
  8. 제 7 항에 있어서,The method of claim 7,
    상기 제 4 단계(S5) 이후,After the fourth step (S5),
    상기 이미지 에이전트는 상기 로봇 인지용 플랫폼에 상기 이미지를 전달함과 아울러 상기 분석을 위한 요청 명령을 전달하는 제 5 단계(S5)와,The image agent transmits the image to the robot recognition platform, and a fifth step (S5) of transmitting a request command for the analysis,
    상기 로봇 인지용 플랫폼은 전달받은 이미지를 저장함과 아울러 상기 AI 진단 서버에 상기 분석을 요청하는 제 6 단계(S6)를 더 포함하는 것을 특징으로 하는,The robot recognition platform further comprises a sixth step (S6) of storing the received image and requesting the analysis from the AI diagnosis server.
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.A diagnostic method for the analysis of specific data of the robot recognition platform system.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 제 6 단계(S6) 이후,After the sixth step (S6),
    상기 AI 진단 서버는 요청받은 상기 이미지의 분석 결과를 상기 로봇 인지용 플랫폼으로 전달하는 제 7 단계(S7)와,The AI diagnostic server transmits the analysis result of the requested image to the robot recognition platform (S7),
    상기 로봇 인지용 플랫폼은 상기 분석 결과를 상기 이미지 에이전트에 응답하는 제 8 단계(S8)를 더 포함하는 것을 특징으로 하는,The robot recognition platform, characterized in that it further comprises an eighth step (S8) of responding to the analysis result to the image agent,
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.A diagnostic method for the analysis of specific data of the robot recognition platform system.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 제 8 단계(S8) 이후,After the eighth step (S8),
    상기 이미지 에이전트는 상기 처리부에 상기 이미지와, 상기 이미지에 대한 분석 결과를 함께 전달하는 제 9 단계(S9)와,The image agent is the ninth step (S9) of delivering the image and the analysis result for the image together to the processing unit,
    상기 처리부는 상기 스냅숏 명령을 전달한 상기 원격 제어 관제부의 화면에 상기 이미지와, 상기 이미지에 대한 분석 결과를 표시하는 제 10 단계(S10)를 더 포함하는 것을 특징으로 하는,The processing unit may further include a tenth step (S10) of displaying the image and an analysis result of the image on a screen of the remote control control unit that has transmitted the snapshot command.
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.A diagnostic method for the analysis of specific data of the robot recognition platform system.
  11. IP 기반 네트워크 상에서 영상촬영장치로부터 수집된 영상 데이터의 JPEG 프레임을 원격 제어 관제부에서 실시간으로 관제하도록 하는 스트리머와,Streamer for real-time control of the JPEG frame of the image data collected from the image taking device on the IP-based network by the remote control controller,
    상기 영상촬영장치로부터 전달받는 영상 데이터를 업로드하거나 또는 AI 진단 서버에 분석을 요청하는 백엔드를 포함하는 것을 특징으로 하는,Characterized in that it comprises a back end for uploading the image data received from the imaging device or requesting analysis from the AI diagnostic server,
    로봇 인지용 플랫폼.Robot recognition platform.
  12. 제 11 항에 있어서,The method of claim 11,
    상기 스트리머는 상기 영상촬영장치 내부에서 실행되는 스트림 서버와 이미지 에이전트를 실행 또는 중지시키고, 호스트 설정 정보를 지정하는 스크립트에 의해 수행되는 것을 특징으로 하는,The streamer is performed by a script that executes or stops a stream server and an image agent running inside the video recording apparatus, and specifies host configuration information.
    로봇 인지용 플랫폼.Robot recognition platform.
  13. 제 11 항에 있어서,The method of claim 11,
    상기 백엔드는 상기 영상촬영장치에서 업로드한 상기 영상 데이터를 AI 진단 서버에 분석 요청하고, 그 결과를 제이슨 포맷으로 만드는 분석 스크립트에 의해 수행되는 것을 특징으로 하는,The back end is characterized in that it is performed by an analysis script to request the analysis of the image data uploaded from the imaging device to the AI diagnostic server, and the results in Jason format,
    로봇 인지용 플랫폼.Robot recognition platform.
PCT/KR2019/017676 2018-12-14 2019-12-13 Platform, system, and diagnostic method for robot recognition WO2020122662A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180162165A KR101981326B1 (en) 2018-12-14 2018-12-14 The platform for robot recognition, the system and the monitoring method thereof
KR10-2018-0162165 2018-12-14

Publications (1)

Publication Number Publication Date
WO2020122662A1 true WO2020122662A1 (en) 2020-06-18

Family

ID=66680674

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/017676 WO2020122662A1 (en) 2018-12-14 2019-12-13 Platform, system, and diagnostic method for robot recognition

Country Status (2)

Country Link
KR (1) KR101981326B1 (en)
WO (1) WO2020122662A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111973228A (en) * 2020-06-17 2020-11-24 谈斯聪 B-ultrasonic data acquisition, analysis and diagnosis integrated robot and platform
CN113707301A (en) * 2021-08-30 2021-11-26 康键信息技术(深圳)有限公司 Remote inquiry method, device, equipment and medium based on artificial intelligence
CN113721636A (en) * 2021-10-11 2021-11-30 珠海城市职业技术学院 AI video tracking system based on mobile robot platform

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001274936A (en) * 2000-01-21 2001-10-05 Casio Comput Co Ltd Image data transmission system and image pickup data transmission method
JP2006081142A (en) * 2004-08-09 2006-03-23 Megachips System Solutions Inc Network camera, ddns server, and video distribution system
KR101722664B1 (en) * 2015-10-27 2017-04-18 울산과학기술원 Multi-viewpoint System, Wearable Camera, CCTV, Control Server And Method For Active Situation Recognition
KR101753117B1 (en) * 2016-09-21 2017-07-05 (주) 플래누리 Lpr system for controlling entrance time and exit time of vehicle by implementing camera and lpr module integrally and the method threof
KR101879444B1 (en) * 2018-03-05 2018-07-17 (주)아성정보 Method and apparatus for operating CCTV(closed circuit television)

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001274936A (en) * 2000-01-21 2001-10-05 Casio Comput Co Ltd Image data transmission system and image pickup data transmission method
JP2006081142A (en) * 2004-08-09 2006-03-23 Megachips System Solutions Inc Network camera, ddns server, and video distribution system
KR101722664B1 (en) * 2015-10-27 2017-04-18 울산과학기술원 Multi-viewpoint System, Wearable Camera, CCTV, Control Server And Method For Active Situation Recognition
KR101753117B1 (en) * 2016-09-21 2017-07-05 (주) 플래누리 Lpr system for controlling entrance time and exit time of vehicle by implementing camera and lpr module integrally and the method threof
KR101879444B1 (en) * 2018-03-05 2018-07-17 (주)아성정보 Method and apparatus for operating CCTV(closed circuit television)

Also Published As

Publication number Publication date
KR101981326B1 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
WO2020122662A1 (en) Platform, system, and diagnostic method for robot recognition
WO2011062304A1 (en) Multifunctional home network system employing ubiquitous computing
WO2009091222A2 (en) Method and apparatus for outputting event of third party device in home network supporting upnp remote protocol
WO2016171341A1 (en) Cloud-based pathology analysis system and method
WO2022215841A1 (en) Building fire safety management system and method
WO2019146956A1 (en) Apparatus and method for acquiring information of device
WO2021020866A1 (en) Image analysis system and method for remote monitoring
WO2015190639A1 (en) Surveillance camera capable of outputting video and video transmission/reception system including same
WO2013129839A1 (en) Apparatus and method of providing medical data based on a handover of a medical sensor
JP5995928B2 (en) Network system, network switch, and distribution destination network device
WO2013012278A2 (en) Method and apparatus for managing device context using an ip address in a communication system
WO2017073804A1 (en) Method for detecting abnormality in digital signage, and device therefor
WO2023090547A1 (en) Image-based remote home care system
WO2011065692A2 (en) System for measuring the response time of a server using dummy request tags and method for same
WO2013039297A2 (en) Method and system for searching for object in network
WO2018097384A1 (en) Crowdedness notification apparatus and method
WO2017150781A1 (en) Collaboration method between smart devices and cloud server
WO2018117301A1 (en) Iot gateway for simultaneously providing local and global iot services
WO2020189953A1 (en) Camera analyzing images on basis of artificial intelligence, and operating method therefor
WO2018074691A1 (en) Stand-alone multiple video surveillance system
WO2014098398A1 (en) Portable x-ray detection device and method for controlling same
WO2020130536A1 (en) Intelligent call system using beacon
WO2020091441A2 (en) Home appliance
WO2012169724A1 (en) Information device and method for a terminal to access same
WO2018212405A1 (en) Power solution management method using location-based augmented reality

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19896529

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19896529

Country of ref document: EP

Kind code of ref document: A1