KR101981326B1 - 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법 - Google Patents

로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법 Download PDF

Info

Publication number
KR101981326B1
KR101981326B1 KR1020180162165A KR20180162165A KR101981326B1 KR 101981326 B1 KR101981326 B1 KR 101981326B1 KR 1020180162165 A KR1020180162165 A KR 1020180162165A KR 20180162165 A KR20180162165 A KR 20180162165A KR 101981326 B1 KR101981326 B1 KR 101981326B1
Authority
KR
South Korea
Prior art keywords
image
robot recognition
recognition platform
robot
analysis
Prior art date
Application number
KR1020180162165A
Other languages
English (en)
Inventor
조영임
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020180162165A priority Critical patent/KR101981326B1/ko
Application granted granted Critical
Publication of KR101981326B1 publication Critical patent/KR101981326B1/ko
Priority to PCT/KR2019/017676 priority patent/WO2020122662A1/ko

Links

Images

Classifications

    • H04N5/23206
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 복수의 영상촬영장치(100-1, 100-2, 100-3, ?, 100-n)로부터 영상 데이터를 수집하는 영상 데이터 수집부(100)와, 상기 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼(200)과, 상기 로봇 인지용 플랫폼(200)으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼(200)에 응답하는 AI 진단 서버(400)와, 상기 AI 진단 서버(400)로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼(200)에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부(300)를 포함하며, 이에 의하면, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있도록 한다.

Description

로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법{THE PLATFORM FOR ROBOT RECOGNITION, THE SYSTEM AND THE MONITORING METHOD THEREOF}
본 발명은 로봇 인지용 플랫폼, 로봇 인지용 플랫폼 시스템 및 로봇 인지용 플랫폼 시스템의 진단 방법에 관한 것으로, 더 상세하게는, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하는 로봇 인지용 플랫폼, 로봇 인지용 플랫폼 시스템 및 로봇 인지용 플랫폼 시스템의 진단 방법에 관한 것이다.
공공 장소, 사무실, 주택, 우범 지역 등에는 범죄를 예방하고 보안을 강화하기 위해, 다수의 감시 카메라를 설치하여 동시에 운영하고 있다.
이러한 다수의 감시 카메라를 통해 실시간으로 촬영되어 획득된 각각의 영상 정보는 관제실의 내부에 마련된 관제 모니터에 표시된다.
이때, 관제 모니터의 화면은 감시 카메라의 수에 대응하여 하드웨어 또는 소프트웨어 방식으로 분할 구성되어 각각의 영상 정보가 상호 구분되게 관제 모니터에 표출되게 된다.
그러나 감시 카메라 수가 많을 경우 감시 카메라 수만큼의 영상 정보가 관제 모니터에 한번에 표출되면서 네트워크상 트래픽이 발생할 수 있고, 이에 의해 감시 카메라가 제공하는 영상 정보를 관제 모니터가 제대로 수신하지 못함으로써, 범죄 예방 및 보안 강화를 달성하지 못하는 문제점이 있었다.
또한, 기존의 관제 시스템은 카메라가 제공하는 영상 정보를 그대로 관제 모니터에 표시하기 때문에, 표시되는 영상 데이터에 대한 분석 자료가 미비한 문제점이 있었다.
상기한 바와 같은 종래의 문제점을 해결하기 위한 본 발명은 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있도록 하는 로봇 인지용 플랫폼, 로봇 인지용 플랫폼 시스템 및 로봇 인지용 플랫폼 시스템의 진단 방법을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위해, 본 발명에 따른 로봇 인지용 플랫폼 시스템은, 복수의 영상촬영장치(100-1, 100-2, 100-3, ?, 100-n)로부터 영상 데이터를 수집하는 영상 데이터 수집부(100)와, 상기 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼(200)과, 상기 로봇 인지용 플랫폼(200)으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼(200)에 응답하는 AI 진단 서버(400)와, 상기 AI 진단 서버(400)로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼(200)에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부(300)를 포함한다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 원격 제어 관제부(300)에 의해 상기 로봇 인지용 플랫폼(200)에 상기 영상 데이터 수집부(100)의 영상촬영장치 중 하나의 영상촬영장치의 호스트 정보를 등록하면, 상기 로봇 인지용 플랫폼(200)에서 해당 영상촬영장치의 스트리밍에 접속하여 관제 세션을 준비하는 것이 바람직하다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 호스트 정보는 해당 영상촬영장치의 네트워크에 디디엔에스(DDNS: Dynamic Domain name system)와 포트 포워딩을 통해 고유의 호스트 정보로 설정되는 것이 바람직하다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 등록된 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 웹 소켓에 의해 실행되면 상기 호스트 정보가 자동으로 인식되어 상기 로봇 인지용 플랫폼(200)에 등록되는 것이 바람직하다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션을 활성화하고, 상기 로봇 인지용 플랫폼(200)에 등록된 상기 호스트 정보가 확인되고, 해당 영상촬영장치의 네트워크에 이상이 없을 경우, 활성화된 상기 스트리밍 세션은 상기 로봇 인지용 플랫폼(200)에 접속한 상기 원격 제어 관제부(300)에 의해 실시간 관제가 이루어지는 것이 바람직하다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 상기 로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션과, 명령어 채널 세션을 활성화하고, 상기 로봇 인지용 플랫폼(200)이 상기 영상 데이터를 진단하기 위해 상기 AI 진단 서버(400)에 분석 요청하면, 상기 AI 진단 서버(400)는 분석 결과를 제이슨 포맷(json-format)으로 상기 로봇 인지용 플랫폼(200)에 응답하는 것이 바람직하다.
상기 목적을 달성하기 위해, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법으로서, 복수의 영상촬영장치(100-1, 100-2, 100-3, ?, 100-n)로부터 영상 데이터를 수집하는 영상 데이터 수집부(100)와, 상기 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼(200)과, 상기 로봇 인지용 플랫폼(200)으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼(200)에 응답하는 AI 진단 서버(400)와, 상기 AI 진단 서버(400)로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼(200)에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부(300)를 포함하는 로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법은, 상기 원격 제어 관제부(300)가 상기 로봇 인지용 플랫폼(200)에 접속하여 관제하고 있는 해당 영상촬영장치의 처리부(110)에 스냅숏(snapshot) 명령을 전달하는 제 1 단계(S1)와, 상기 데이터 수집부(100)의 처리부(110)에 의해 상기 스냅숏 명령을 해당 영상촬영장치에 요청하는 제 2 단계(S2)와, 해당 영상촬영장비에 의해 실행된 상기 스냅숏 실행 결과를 상기 처리부(110)에 전달하는 제 3 단계(S3)와, 상기 처리부(110)는 해당 영상촬영장비에 의해 실행된 상기 스냅숏의 이미지를 저장하고, 상기 이미지를 분석하기 위해 이미지 에이전트(120)에 분석을 요청하는 제 4 단계(S4)를 포함한다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법에서, 상기 제 4 단계(S5) 이후, 상기 이미지 에이전트(120)는 상기 로봇 인지용 플랫폼(200)에 상기 이미지를 전달함과 아울러 상기 분석을 위한 요청 명령을 전달하는 제 5 단계(S5)와, 상기 로봇 인지용 플랫폼(200)은 전달받은 이미지를 저장함과 아울러 상기 AI 진단 서버(400)에 상기 분석을 요청하는 제 6 단계(S6)를 더 포함하는 것이 바람직하다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법에서, 상기 제 6 단계(S6) 이후, 상기 AI 진단 서버(400)는 요청받은 상기 이미지의 분석 결과를 상기 로봇 인지용 플랫폼(200)으로 전달하는 제 7 단계(S7)와, 상기 로봇 인지용 플랫폼(200)은 상기 분석 결과를 상기 이미지 에이전트(120)에 응답하는 제 8 단계(S8)를 더 포함하는 것이 바람직하다.
또한, 본 발명에 따른 로봇 인지용 플랫폼 시스템의 진단 방법에서, 상기 제 8 단계(S8) 이후, 상기 이미지 에이전트(120)는 상기 처리부(110)에 상기 이미지와, 상기 이미지에 대한 분석 결과를 함께 전달하는 제 9 단계(S9)와, 상기 처리부(110)는 명령을 전달한 상기 원격 제어 관제부(300)의 화면에 상기 이미지와, 상기 이미지에 대한 분석 결과를 표시하는 제 10 단계(S10)를 더 포함하는 것이 바람직하다.
상기 목적을 달성하기 위해, 본 발명에 따른 로봇 인지용 플랫폼은, IP 기반 네트워크 상에서 영상촬영장치로부터 수집된 영상 데이터의 JPEG 프레임을 원격 제어 관제부(300)에서 실시간으로 관제하도록 하는 스트리머(210)와, 상기 영상촬영장치로부터 전달받는 영상 데이터를 업로드하거나 또는 AI 진단 서버(400)에 분석을 요청하는 백엔드(230)를 포함한다.
또한, 본 발명에 따른 로봇 인지용 플랫폼에서, 상기 스트리머(210)는 상기 영상촬영장치 내부에서 실행되는 스트림 서버와 이미지 에이전트를 실행 또는 중지시키고, 호스트 설정 정보를 지정하는 스크립트(220)에 의해 수행되는 것이 바람직하다.
또한, 본 발명에 따른 로봇 인지용 플랫폼에서, 상기 백엔드(230)는 상기 영상촬영장치에서 업로드한 상기 영상 데이터를 AI 진단 서버(400)에 분석 요청하고, 그 결과를 제이슨 포맷(json-format)으로 만드는 분석 스크립트(240)에 의해 수행되는 것이 바람직하다.
기타 실시예의 구체적인 사항은 "발명을 실시하기 위한 구체적인 내용" 및 첨부 "도면"에 포함되어 있다.
본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 각종 실시예를 참조하면 명확해질 것이다.
그러나, 본 발명은 이하에서 개시되는 각 실시예의 구성만으로 한정되는 것이 아니라 서로 다른 다양한 형태로도 구현될 수도 있으며, 단지 본 명세서에서 개시한 각각의 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구범위의 각 청구항의 범주에 의해 정의될 뿐임을 알아야 한다.
이상에서 살펴본 바와 같이, 본 발명에 의하면, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템의 전체 구성을 나타내는 시스템 구성도이다.
도 2는 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 영상촬영장치의 자동설정을 나타내는 구성도이다.
도 3은 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 영상환경설정 및 스트리밍을 나타내는 구성도이다.
도 4는 본 발명의 일 실시 예에 따른 영상자동 송수신 및 진단 프로세스를 나타내는 구성도이다.
도 5는 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 진단 프로세스의 전체 흐름을 나타내는 플로어 차트이다.
도 6은 본 발명의 일 실시 예에 따른 로봇 인지용 플랫폼 시스템에서, 로봇 인지용 플랫폼의 소스 구성을 나타내는 블록도이다.
본 발명을 상세하게 설명하기 전에, 본 명세서에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 무조건 한정하여 해석되어서는 아니되며, 본 발명의 발명자가 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 각종 용어의 개념을 적절하게 정의하여 사용할 수 있고, 더 나아가 이들 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 함을 알아야 한다.
즉, 본 명세서에서 사용된 용어는 본 발명의 바람직한 실시예를 설명하기 위해서 사용되는 것일 뿐이고, 본 발명의 내용을 구체적으로 한정하려는 의도로 사용된 것이 아니며, 이들 용어는 본 발명의 여러 가지 가능성을 고려하여 정의된 용어임을 알아야 한다.
또한, 본 명세서에 있어서, 단수의 표현은 문맥상 명확하게 다른 의미로 지시하지 않는 이상, 복수의 표현을 포함할 수 있으며, 유사하게 복수로 표현되어 있다고 하더라도 단수의 의미를 포함할 수 있음을 알아야 한다.
본 명세서의 전체에 걸쳐서 어떤 구성 요소가 다른 구성 요소를 "포함"한다고 기재하는 경우에는, 특별히 반대되는 의미의 기재가 없는 한 임의의 다른 구성 요소를 제외하는 것이 아니라 임의의 다른 구성 요소를 더 포함할 수도 있다는 것을 의미할 수 있다.
더 나아가서, 어떤 구성 요소가 다른 구성 요소의 "내부에 존재하거나, 연결되어 설치된다"고 기재한 경우에는, 이 구성 요소가 다른 구성 요소와 직접적으로 연결되어 있거나 접촉하여 설치되어 있을 수 있고, 일정한 거리를 두고 이격되어 설치되어 있을 수도 있으며, 일정한 거리를 두고 이격되어 설치되어 있는 경우에 대해서는 해당 구성 요소를 다른 구성 요소에 고정 내지 연결시키기 위한 제 3의 구성 요소 또는 수단이 존재할 수 있으며, 이 제 3의 구성 요소 또는 수단에 대한 설명은 생략될 수도 있음을 알아야 한다.
반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결"되어 있다거나, 또는 "직접 접속"되어 있다고 기재되는 경우에는, 제 3의 구성 요소 또는 수단이 존재하지 않는 것으로 이해하여야 한다.
마찬가지로, 각 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 " ~ 사이에"와 "바로 ~ 사이에", 또는 " ~ 에 이웃하는"과 " ~ 에 직접 이웃하는" 등도 마찬가지의 취지를 가지고 있는 것으로 해석되어야 한다.
또한, 본 명세서에 있어서 "일면", "타면", "일측", "타측", "제 1", "제 2" 등의 용어는, 사용된다면, 하나의 구성 요소에 대해서 이 하나의 구성 요소가 다른 구성 요소로부터 명확하게 구별될 수 있도록 하기 위해서 사용되며, 이와 같은 용어에 의해서 해당 구성 요소의 의미가 제한적으로 사용되는 것은 아님을 알아야 한다.
또한, 본 명세서에서 "상", "하", "좌", "우" 등의 위치와 관련된 용어는, 사용된다면, 해당 구성 요소에 대해서 해당 도면에서의 상대적인 위치를 나타내고 있는 것으로 이해하여야 하며, 이들의 위치에 대해서 절대적인 위치를 특정하지 않는 이상은, 이들 위치 관련 용어가 절대적인 위치를 언급하고 있는 것으로 이해하여서는 아니된다.
더욱이, 본 발명의 명세서에서는, "?부", "?기", "모듈", "장치" 등의 용어는, 사용된다면, 하나 이상의 기능이나 동작을 처리할 수 있는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 결합으로 구현될 수 있음을 알아야 한다.
또한, 본 명세서에서는 각 도면의 각 구성 요소에 대해서 그 도면 부호를 명기함에 있어서, 동일한 구성 요소에 대해서는 이 구성 요소가 비록 다른 도면에 표시되더라도 동일한 도면 부호를 가지고 있도록, 즉 명세서 전체에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지시하고 있다.
본 명세서에 첨부된 도면에서 본 발명을 구성하는 각 구성 요소의 크기, 위치, 결합 관계 등은 본 발명의 사상을 충분히 명확하게 전달할 수 있도록 하기 위해서 또는 설명의 편의를 위해서 일부 과장 또는 축소되거나 생략되어 기술되어 있을 수 있고, 따라서 그 비례나 축척은 엄밀하지 않을 수 있다.
또한, "프레임부"는 제1 프레임부 및 제2 프레임부를 포함하는 단위를 의미하는 것으로 이해되어야 하며, "칸막이 유닛"은 "도어부" 및 "포스트부"를 포함하는 단위를 의미하는 것으로 이해되어야 한다.
또한, 이하에서, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 구성, 예를 들어, 종래 기술을 포함하는 공지 기술에 대한 상세한 설명은 생략될 수도 있다.
이하, 본 발명의 실시예에 대해 관련 도면들을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명에 따른 로봇 인지용 플랫폼 시스템의 전체 구성을 나타내는 시스템 구성도이다.
도 1을 참조하면, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)은, 영상 데이터 수집부(100)와, 로봇 인지용 플랫폼(200)과, 원격 제어 관제부(300)와, AI 진단 서버(400)를 포함한다.
영상 데이터 수집부(100)는 복수의 영상촬영장치(100-1, 100-2, 100-3, ?, 100-n), 예를 들면 복수의 카메라로부터 영상 데이터를 수집하는 역할을 수행한다. 즉, 복수의 영상촬영장치(100-1, 100-2, 100-3, ?, 100-n)는 다수의 영역에 설치되는 각각의 카메라에서 촬영되어 획득된 영상 정보를 수집한다. 이러한 영상 정보는 컬러 영상, 그레이 영상, 이진 영상 등 중 하나의 영상 포맷 형식을 가진다.
로봇 인지용 플랫폼(200)은 영상 데이터 수집부(100)로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 역할을 수행한다. 이러한 로봇 인지용 플랫폼(200)은 영상 데이터 수집부(100)를 통해 수집되는 각각의 영상 정보를 개별적으로 분석하여 영상 정보에 나타나는 이벤트를 감지하는 이벤트 감지부나, 이벤트 감지부에 의해 감지된 이벤트와 관련된 영상 정보가 관제 영상의 집중 관제 영역에 표출되도록 각 영상 정보의 표출 영역을 결정하는 표출 영역 결정부 등을 포함할 수 있다.
여기서, 이벤트란 각각의 영상 정보에서 나타나는 객체의 움직임을 의미한다. 즉, 이벤트 감지부는 영상 정보를 분석하여 소정의 픽셀 그룹으로 이루어진 객체를 인식하고, 인식된 객체의 움직임이 발생하면 이벤트가 발생한 것으로 간주하고 이벤트에 대응되는 감지 신호를 생성한다. 이때, 감지 신호에는 어느 영상 정보에서 이벤트가 발생한 것인지를 구분할 수 있고 이벤트가 언제 발생한 것인지를 구분할 수 있도록 인덱스 정보와 시각 정보가 함께 포함될 수 있다.
또한, 표출 영역 결정부는 단위 시간에 이벤트를 감지한 영상 정보가 관제 영상의 집중 관제 영역에 표출되도록 이벤트와 관련된 영상 정보의 표출 영역과, 이벤트와 관련되지 않은 나머지 영상 정보의 표출 영역을 결정한다. 이때, 이벤트와 관련된 영상 정보는 관제 영상의 집중 관제 영역이 표출 영역으로 결정되고, 이벤트와 관련되지 않은 나머지 영상 정보들은 집중 관제 영역이 아닌 관제 영상의 나머지 영역이 표출 영역으로 결정된다.
AI 진단 서버(400)는 로봇 인지용 플랫폼(200)으로부터 요청된 특정 데이터의 분석을 수행하고, 그 결과를 로봇 인지용 플랫폼(200)에 응답하는 역할을 수행한다. 여기서, 특정 데이터란 상술한 바와 같이 영상 정보에 나타나는 이벤트일 수 있다. 즉, 로봇 인지용 플랫폼(200)에서 인식된 객체의 움직임이 발생하면 이벤트가 발생한 것으로 간주하고 이 이벤트에 대한 분석을 AI 진단 서버(400)에 요청하게 된다. AI 진단 서버(400)는 이러한 이벤트를 딥러닝 등의 방식으로 학습시키고, 학습된 이벤트에 대한 분석 결과를 로봇 인지용 플랫폼(200)에 응답하게 된다. 이때, 이벤트에 대한 분석 결과로는 객체의 움직임, 객체의 이동 경로, 조명 상태, 카메라의 진동 상태, 환경 요인 등일 수 있다. 즉, 객체의 움직임뿐만 아니라 객체의 움직임에 영향을 미치는 조건들이 분석 결과로 로봇 인지용 플랫폼(200)에 응답할 수 있다.
원격 제어 관제부(300)는 AI 진단 서버(400)로부터 분석 결과를 수신함과 아울러 로봇 인지용 플랫폼(200)에 접속하여 영상 데이터를 관제하거나 또는 원격 제어하는 역할을 수행한다. 여기서, 원격 제어 관제부(300)에는 로봇 인지용 플랫폼(200)에 의해 표출 영역으로 결정되는 집중 관제 영역이 관제 영상으로 관제된다. 즉, 관리자는 원격 제어 관제부(300)의 관제 모니터에 표출되는 관제 영상 중 객체의 움직임에 따른 이벤트가 감지된 집중 관제 영역에 표출되는 영상 정보를 주시하여 관제함으로써, 피로감을 줄이면서 용이하고 효과적으로 관제를 행할 수 있는 효과가 있다.
도 2는 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 영상촬영장치의 자동설정을 나타내는 구성도이다.
도 2를 참조하여, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 복수의 영상촬영장치(100-1, 100-2, 100-3, ?, 100-n) 각각을 자동으로 설정하는 구성에 대해 설명한다.
우선, 원격 제어 관제부(300)에 의해 로봇 인지용 플랫폼(200)에 영상 데이터 수집부(100)의 영상촬영장치(100-1, 100-2, 100-3, ?, 100-n) 중 하나의 영상촬영장치의 호스트 정보를 등록하면, 로봇 인지용 플랫폼(200)에서 해당 영상촬영장치의 스트리밍에 접속하여 관제 세션을 준비한다.
이때, 호스트 정보는 해당 영상촬영장치의 네트워크에 DDNS와 포트 포워딩을 통해 고유의 호스트 정보로 설정된다. 여기서, DDNS란 Dynamic DNS(동적 DNS)로, 실시간으로 DNS를 갱신하는 방식이다. 주로 도메인의 IP가 유동적인 경우 사용되며, IP가 변경되어도 DDNS로 설정한 도메인 값은 변하지 않기 때문에 용이하게 접속이 가능하다. 또한, 포트 포워딩이란 컴퓨터에서 특정 통신 포트를 개방하여 통신이 되도록 하는 방식이다. 즉, 내부 포트를 외부 원격 서버에 전달되도록 지정하거나, 방화벽을 그대로 유지하면서 방화벽의 특정 포트를 내부망의 특정 호스트와 연결시키는 방식이다. 예를 들어, 마이크로소프트 윈도우 XP 서비스 팩 2에 들어간 윈도우 방화벽을 비롯한 대부분의 방화벽 소프트웨어나 인터넷 공유기는 포트 포워딩 메뉴가 있고, 여기에 개방할 포트 번호를 등록하여 사용할 수 있다. 이와 같이, 영상촬영장치의 호스트 정보는 DDNS와 포트 포워딩을 통해 고유의 호스트 정보로 등록시킬 수 있다.
이후, 등록된 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 웹 소켓에 의해 실행되면 호스트 정보가 자동으로 인식되어 로봇 인지용 플랫폼(200)에 등록된다. 여기서, 웹 소켓이란, 웹 브라우저와 웹 서버 상에 구현되어 두 지점 간에 실시간 상호 작용하도록 지원한다. 참고로 이러한 웹 소켓 프로토콜은 2011년 인터넷 표준화 기구인 IETF에서(IETF RFC 6455) 표준화되었고, 웹 소켓 응용 프로그래밍 인터페이스(API)는 월드 와이드 웹 컨소시엄인 W3C에서 표준화를 완료했다. 이와 같이 웹 소켓에 의해 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 실행되면, 로봇 인지용 플랫폼(200)에 호스트 정보가 자동으로 등록된다.
도 3은 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 영상환경설정 및 스트리밍을 나타내는 구성도이다.
도 3을 참조하여, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 영상환경설정 및 스트리밍 구성에 대해 설명한다.
로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션을 활성화한다. 이러한 영상촬영장치는 2개의 채널을 제공하는데, 하나는 스트리밍을 위한 채널이고, 다른 하나는 제어 명령을 위한 채널이다.
영상환경설정과, 스트리밍 구성을 위해, 스트리밍 채널 세션이 활성화되면, 로봇 인지용 플랫폼(200)에 등록된 호스트 정보가 확인되고, 해당 영상촬영장치의 네트워크에 이상이 없을 경우, 활성화된 스트리밍 세션을 통해 로봇 인지용 플랫폼(200)에 접속한 원격 제어 관제부(300)는 실시간 관제를 수행하게 된다. 이때, 영상 데이터 수집부(100)의 처리부(110)는 영상촬영장비를 통해 시리얼 넘버와, 촬영 환경 정보와, 수집 장비 정보와, 자동 촬영 모드를 제공받게 되며, 이러한 정보들과, 촬영 모드를 로봇 인지용 플랫폼(200)에 전달하게 된다.
도 4는 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 영상자동 송수신 및 진단 프로세스를 나타내는 구성도이다.
도 4를 참조하여, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 영상자동 송수신과, 진단 프로세스의 구성에 대해 설명한다.
로봇 인지용 플랫폼(200)은 등록된 해당 영상촬영장치의 스트리밍 채널 세션과, 명령어 채널 세션을 활성화하고, 로봇 인지용 플랫폼(200)이 영상 데이터를 진단하기 위해 AI 진단 서버(400)에 분석 요청하면, AI 진단 서버(400)는 분석 결과를 제이슨 포맷을 통해 로봇 인지용 플랫폼(200)에 응답한다. 여기서, 제이슨 포맷이란, 임베디드 클라이언트(Embedded Client)와 웹 서버 사이에서 통신시 사용하는 프로토콜이다. 본 발명에서는 로봇 인지용 플랫폼(200)이 임베디드 클라이언트의 역할을 수행하고, AI 진단 서버(400)가 웹 서버의 역할을 수행한다. 즉, 로봇 인지용 플랫폼(200)에서 분석을 요청하면, AI 진단 서버(400)에서 분석에 대한 응답을 전달한다.
도 5는 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 진단 프로세스의 전체 흐름을 나타내는 플로어 차트이다.
도 5를 참조하면, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 진단을 위한 프로세스는 다음과 같이 10단계에 의해 수행된다.
제 1 단계(S1)에서, 원격 제어 관제부(300)가 로봇 인지용 플랫폼(200)에 접속하여 관제하고 있는 해당 영상촬영장치의 처리부(110)에 스냅숏(snapshot) 명령을 전달한다. 여기서, 스냅숏이란 컴퓨터에서 실행중인 프로그램의 상태를 알아보기 위해 어느 한 순간의 주기억 장치나, 하드웨어 레지스터, 상태 표시기 등의 모든 내용을 포함한 메모리의 현재 상태를 저장하는 것을 말한다. 즉, 시스템이 고장으로 정지했을 때 복구를 위해 주기적으로 스냅숏 저장이 이루어진다.
제 2 단계(S2)에서, 데이터 수집부(100)의 처리부(110)는 스냅숏 명령을 해당 영상촬영장치에 요청하고, 제 3 단계(S3)에서, 해당 영상촬영장비에 의해 실행된 스냅숏 명령의 실행 결과를 처리부(110)에 전달한다.
제 4 단계(S4)에서, 처리부(110)가 해당 영상촬영장비에 의해 실행된 스냅숏의 이미지를 저장하고, 이러한 이미지를 분석하기 위해 이미지 에이전트(120)에 분석을 요청하고, 제 5 단계(S5)에서, 이미지 에이전트(120)가 로봇 인지용 플랫폼(200)에 이미지를 전달함과 아울러 분석을 위한 요청 명령을 전달한다.
제 6 단계(S6)에서, 로봇 인지용 플랫폼(200)은 전달받은 이미지를 저장함과 아울러 AI 진단 서버(400)에 분석을 요청하고, 제 7 단계(S7)에서, AI 진단 서버(400)는 요청받은 이미지의 분석 결과를 로봇 인지용 플랫폼(200)으로 전달한다.
제 8 단계(S8)에서, 로봇 인지용 플랫폼(200)은 분석 결과를 이미지 에이전트(120)에 응답하고, 제 9 단계(S9)에서, 이미지 에이전트(120)는 처리부(110)에 이미지와, 이미지에 대한 분석 결과를 함께 전달한다.
제 10 단계(S10)에서, 처리부(110)는 명령을 전달한 원격 제어 관제부(300)의 화면에 이미지와, 이미지에 대한 분석 결과를 표시한다.
이와 같은 10단계의 프로세스에 의해, 영상 데이터 수집부(100)로부터 수집한 영상 데이터를 로봇 인지용 플랫폼(200)에 전달하고, 로봇 인지용 플랫폼(200)과, AI 진단 서버(400)는 진단 프로세스를 수행하게 된다.
도 6은 본 발명에 따른 로봇 인지용 플랫폼 시스템에서, 로봇 인지용 플랫폼의 소스 구성을 나타내는 블록도이다.
도 6을 참조하면, 본 발명에 따른 로봇 인지용 플랫폼 시스템(1000)에서, 로봇 인지용 플랫폼(200)은 스트리머(210) 서버와, 백엔드(230)서버를 더 포함한다.
스트리머(210)는 IP 기반 네트워크 상에서 영상 데이터의 JPEG 프레임을 원격 제어 관제부(300)에서 실시간으로 관제하도록 한다. 이때, 스트리머(210)는 영상 데이터 수집부(100)의 영상촬영장치 내부에서 실행되는 스트림 서버와 이미지 에이전트를 실행 또는 중지시키고, 호스트 설정 정보를 지정하는 스크립트(220)에 의해 수행된다.
좀 더 자세히 설명하면, 스트리머(210)는 오픈소스(mjpg-streamer)를 기반으로 만들어진 서버다. 카메라 모듈을 플러그 인으로 탑재하여 JPEG 프레임을 IP 기반 네트워크상에서 실시간으로 관제할 수 있다. 또한 크롬(Chrome), 파이어폭스(Firefox), VLC, 엠플레이어(mplayer) 등 기타 다양한 환경의 뷰어에서 동작할 수 있도록 영상을 최적화하고 있다. RAM과 CPU가 제한적인 환경에서 동작할 수 있도록 여러 가지 오픈 소스로 이루어진 유틸리티가 함께 탑재된다.
스크립트(220)는 영상촬영장치 내부에서 실행되는 스트림서버와 에이전트를 실행 또는 중지하고 기타 설정 정보를 지정한다. 외부 세션(프론트엔드)에서 접근이 불가능하도록 되어 있고, 반드시 유효한 커맨드를 요청한 세션 또는 시스템을 통해서 실행된다.
또한, 백엔드(230)는 영상촬영장치로부터 전달받는 영상 데이터를 업로드하거나 또는 AI 진단 서버(400)에 분석을 요청한다. 이때, 백엔드(230)는 영상촬영장치에서 업로드한 영상 데이터를 AI 진단 서버(230)에 분석 요청하고, 그 결과를 제이슨 포맷으로 만드는 분석 스크립트(240)에 의해 수행된다.
여기서, 백엔드(230)는 노드 제이 에스(NodeJS)를 사용하여 만들어진 API 처리 전용 서버이다. 미리 정의된 API를 요청 받아 기능을 수행하며, 내부의 라우터에 의해 API 서비스 처리가 구분된다. 멀티세션의 동시접속 또는 동시요청을 처리하기 위해 웹 세션, 웹 소켓, 데이터베이스 세션 등을 모두 연결 풀(Connection-Pool) 방식으로 관리된다. 이때, 운영 장비의 리소스 성능에 따라 풀의 크기를 설정하여 사용한다. 연결 풀 방식이란, 데이터베이스 메모리 내에 있는 데이터베이스 연결들로 된 하나의 캐시를 말한다. 데이터베이스 연결들은 데이터에 대한 요청이 발생하면 재사용되는 것으로, 데이터베이스의 수행 능력을 향상시키기 위해 사용된다. 다음, 연결 풀에서 하나의 연결이 생성되어 풀에 배치되면 새로운 연결이 만들어지지 않도록 재사용하지만 만약에 모든 연결이 사용 중에 있으면 새로운 연결이 만들어져 풀에 추가된다. 연결 풀은 사용자가 데이터베이스 연결을 위해 기다리는 시간을 축소시키기도 한다.
영상촬영장치에서 파일 업로드 요청을 받으면 지정한 위치에 업로드한다. 커맨드에 따라 단순히 업로드만 하거나, 업로드 완료 후 AI 진단 서버(400)에 요청까지 수행한다. AI 진단 서버(400)에 업로드 이미지 분석 요청을 하면, 해당 결과가 제이슨 포맷으로 제공되는데 이를 받아서 응답한다.
분석 스크립트(240)는 영상촬영장치에서 업로드한 이미지를 AI 진단 서버(400)에 진단 요청을 하고, 그 결과를 제이슨 포맷으로 만드는 피톤(python) 스크립트이다. AI 분석 결과는 이미지 상의 정보 등과 같이 다양한 정보를 한번에 출력한다. 해당 스크립트는 백엔드에서만 접근이 가능하고, 프론트엔드 세션에서 사용은 불가능하다.
이상에서 살펴본 바와 같이, 본 발명에 의하면, 복수의 카메라(영상촬영장치)로부터 수집되는 각각의 영상 데이터 중 이벤트가 발생하는 특정 데이터의 분석을 AI 진단 서버를 통해 분석하고, 그 분석 결과를 한번에 출력함과 아울러 해당 스크립트에 대해 백엔드에서만 접근이 가능하고, 외부 세션에서는 접근이 불가능함으로써 관제를 더욱 용이하고 효과적으로 행할 수 있다.
이상, 일부 예를 들어서 본 발명의 바람직한 여러 가지 실시예에 대해서 설명하였지만, 본 "발명을 실시하기 위한 구체적인 내용" 항목에 기재된 여러 가지 다양한 실시예에 관한 설명은 예시적인 것에 불과한 것이며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이상의 설명으로부터 본 발명을 다양하게 변형하여 실시하거나 본 발명과 균등한 실시를 행할 수 있다는 점을 잘 이해하고 있을 것이다.
또한, 본 발명은 다른 다양한 형태로 구현될 수 있기 때문에 본 발명은 상술한 설명에 의해서 한정되는 것이 아니며, 이상의 설명은 본 발명의 개시 내용이 완전해지도록 하기 위한 것으로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이며, 본 발명은 청구범위의 각 청구항에 의해서 정의될 뿐임을 알아야 한다.
100 : 영상 데이터 수집부
110 : 처리부
120 : 이미지 에이전트
200 : 로봇 인지용 플랫폼
210 : 스트리머
220 : 스크립트
230 : 백엔드
240 : 분석 스크립트
300 : 원격 제어 관제부
400 : AI 진단 서버
1000 : 로봇 인지용 플랫폼 시스템

Claims (13)

  1. 복수의 영상촬영장치로부터 영상 데이터를 수집하는 영상 데이터 수집부와,
    상기 영상 데이터 수집부로부터 수집되는 상기 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼과,
    상기 로봇 인지용 플랫폼으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼에 응답하는 AI 진단 서버와,
    상기 AI 진단 서버로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부를 포함하며,
    상기 결과는 객체의 움직임과, 객체의 이동 경로와, 상기 객체의 움직임에 영향을 미치는 조명 상태와, 카메라의 진동 상태와, 환경 요인인 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템.
  2. 제 1 항에 있어서,
    상기 원격 제어 관제부에 의해 상기 로봇 인지용 플랫폼에 상기 영상 데이터 수집부의 영상촬영장치 중 하나의 영상촬영장치의 호스트 정보를 등록하면, 상기 로봇 인지용 플랫폼에서 해당 영상촬영장치의 스트리밍에 접속하여 관제 세션을 준비하는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템.
  3. 제 2 항에 있어서,
    상기 호스트 정보는 해당 영상촬영장치의 네트워크에 디디엔에스(DDNS: Dynamic Domain Name Systme)와 포트 포워딩을 통해 고유의 호스트 정보로 설정되는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템.
  4. 제 3 항에 있어서,
    등록된 해당 영상촬영장치의 고유 시리얼 넘버를 획득하기 위한 명령이 웹 소켓에 의해 실행되면 상기 호스트 정보가 자동으로 인식되어 상기 로봇 인지용 플랫폼에 등록되는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템.
  5. 제 4 항에 있어서,
    상기 로봇 인지용 플랫폼은 등록된 해당 영상촬영장치의 스트리밍 채널 세션을 활성화하고,
    상기 로봇 인지용 플랫폼에 등록된 상기 호스트 정보가 확인되고, 해당 영상촬영장치의 네트워크에 이상이 없을 경우, 활성화된 상기 스트리밍 세션은 상기 로봇 인지용 플랫폼에 접속한 상기 원격 제어 관제부에 의해 실시간 관제가 이루어지는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템.
  6. 제 2 항에 있어서,
    상기 로봇 인지용 플랫폼은 등록된 해당 영상촬영장치의 스트리밍 채널 세션과, 명령어 채널 세션을 활성화하고,
    상기 로봇 인지용 플랫폼이 상기 영상 데이터를 진단하기 위해 상기 AI 진단 서버에 분석 요청하면, 상기 AI 진단 서버는 분석 결과를 제이슨 포맷으로 상기 로봇 인지용 플랫폼에 응답하는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템.
  7. 복수의 영상촬영장치로부터 영상 데이터를 수집하는 영상 데이터 수집부와, 상기 영상 데이터 수집부로부터 수집되는 영상 데이터 중 특정 데이터의 분석을 요청하는 로봇 인지용 플랫폼과, 상기 로봇 인지용 플랫폼으로부터 요청된 상기 특정 데이터의 분석을 수행하고, 그 결과를 상기 로봇 인지용 플랫폼에 응답하는 AI 진단 서버와, 상기 AI 진단 서버로부터 상기 결과를 수신함과 아울러 상기 로봇 인지용 플랫폼에 접속하여 상기 영상 데이터를 관제 또는 원격 제어하는 원격 제어 관제부를 포함하는 로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법으로서,
    상기 원격 제어 관제부가 상기 로봇 인지용 플랫폼에 접속하여 관제하고 있는 해당 영상촬영장치의 처리부에 스냅숏(snapshot) 명령을 전달하는 제 1 단계(S1)와,
    상기 영상 데이터 수집부의 처리부에 의해 상기 스냅숏 명령을 해당 영상촬영장치에 요청하는 제 2 단계(S2)와,
    해당 영상촬영장비에 의해 실행된 상기 스냅숏 실행 결과를 상기 처리부에 전달하는 제 3 단계(S3)와,
    상기 처리부는 해당 영상촬영장비에 의해 실행된 상기 스냅숏의 이미지를 저장하고, 상기 이미지를 분석하기 위해 이미지 에이전트에 분석을 요청하는 제 4 단계(S4)를 포함하며,
    상기 결과는 객체의 움직임과, 객체의 이동 경로와, 상기 객체의 움직임에 영향을 미치는 조명 상태와, 카메라의 진동 상태와, 환경 요인인 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.
  8. 제 7 항에 있어서,
    상기 제 4 단계(S5) 이후,
    상기 이미지 에이전트는 상기 로봇 인지용 플랫폼에 상기 이미지를 전달함과 아울러 상기 분석을 위한 요청 명령을 전달하는 제 5 단계(S5)와,
    상기 로봇 인지용 플랫폼은 전달받은 이미지를 저장함과 아울러 상기 AI 진단 서버에 상기 분석을 요청하는 제 6 단계(S6)를 더 포함하는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.
  9. 제 8 항에 있어서,
    상기 제 6 단계(S6) 이후,
    상기 AI 진단 서버는 요청받은 상기 이미지의 분석 결과를 상기 로봇 인지용 플랫폼으로 전달하는 제 7 단계(S7)와,
    상기 로봇 인지용 플랫폼은 상기 분석 결과를 상기 이미지 에이전트에 응답하는 제 8 단계(S8)를 더 포함하는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.
  10. 제 9 항에 있어서,
    상기 제 8 단계(S8) 이후,
    상기 이미지 에이전트는 상기 처리부에 상기 이미지와, 상기 이미지에 대한 분석 결과를 함께 전달하는 제 9 단계(S9)와,
    상기 처리부는 상기 스냅숏 명령을 전달한 상기 원격 제어 관제부의 화면에 상기 이미지와, 상기 이미지에 대한 분석 결과를 표시하는 제 10 단계(S10)를 더 포함하는 것을 특징으로 하는,
    로봇 인지용 플랫폼 시스템의 특정 데이터의 분석을 위한 진단 방법.
  11. IP 기반 네트워크 상에서 영상촬영장치로부터 수집된 영상 데이터의 JPEG 프레임을 원격 제어 관제부에서 실시간으로 관제하도록 하는 스트리머와,
    상기 영상촬영장치로부터 전달받는 영상 데이터를 업로드하거나 또는 AI 진단 서버에 분석을 요청하는 백엔드를 포함하며,
    상기 분석의 결과는 객체의 움직임과, 객체의 이동 경로와, 상기 객체의 움직임에 영향을 미치는 조명 상태와, 카메라의 진동 상태와, 환경 요인인 것을 특징으로 하는,
    로봇 인지용 플랫폼.
  12. 제 11 항에 있어서,
    상기 스트리머는 상기 영상촬영장치 내부에서 실행되는 스트림 서버와 이미지 에이전트를 실행 또는 중지시키고, 호스트 설정 정보를 지정하는 스크립트에 의해 수행되는 것을 특징으로 하는,
    로봇 인지용 플랫폼.
  13. 제 11 항에 있어서,
    상기 백엔드는 상기 영상촬영장치에서 업로드한 상기 영상 데이터를 AI 진단 서버에 분석 요청하고, 그 결과를 제이슨 포맷으로 만드는 분석 스크립트에 의해 수행되는 것을 특징으로 하는,
    로봇 인지용 플랫폼.
KR1020180162165A 2018-12-14 2018-12-14 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법 KR101981326B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180162165A KR101981326B1 (ko) 2018-12-14 2018-12-14 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법
PCT/KR2019/017676 WO2020122662A1 (ko) 2018-12-14 2019-12-13 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180162165A KR101981326B1 (ko) 2018-12-14 2018-12-14 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법

Publications (1)

Publication Number Publication Date
KR101981326B1 true KR101981326B1 (ko) 2019-05-22

Family

ID=66680674

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180162165A KR101981326B1 (ko) 2018-12-14 2018-12-14 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법

Country Status (2)

Country Link
KR (1) KR101981326B1 (ko)
WO (1) WO2020122662A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111973228A (zh) * 2020-06-17 2020-11-24 谈斯聪 B超数据采集分析诊断一体化机器人,平台
CN113721636A (zh) * 2021-10-11 2021-11-30 珠海城市职业技术学院 一种基于移动机器人平台的ai视频跟踪系统
WO2023029510A1 (zh) * 2021-08-30 2023-03-09 康键信息技术(深圳)有限公司 基于人工智能的远程问诊方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081142A (ja) * 2004-08-09 2006-03-23 Megachips System Solutions Inc ネットワークカメラ、ddnsサーバおよび映像配信システム
KR101722664B1 (ko) * 2015-10-27 2017-04-18 울산과학기술원 능동형 상황 인식을 위한 다인칭 시스템, 웨어러블 카메라, cctv, 관제서버 및 방법
KR101753117B1 (ko) * 2016-09-21 2017-07-05 (주) 플래누리 카메라 및 차량 인식 모듈을 일체형으로 구현하여 차량의 입차 및 출차를 제어하는 lpr 시스템 및 그의 제어 방법
KR101879444B1 (ko) * 2018-03-05 2018-07-17 (주)아성정보 Cctv 구동 방법 및 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001274936A (ja) * 2000-01-21 2001-10-05 Casio Comput Co Ltd 画像データ伝送システム及び撮像データ伝送方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081142A (ja) * 2004-08-09 2006-03-23 Megachips System Solutions Inc ネットワークカメラ、ddnsサーバおよび映像配信システム
KR101722664B1 (ko) * 2015-10-27 2017-04-18 울산과학기술원 능동형 상황 인식을 위한 다인칭 시스템, 웨어러블 카메라, cctv, 관제서버 및 방법
KR101753117B1 (ko) * 2016-09-21 2017-07-05 (주) 플래누리 카메라 및 차량 인식 모듈을 일체형으로 구현하여 차량의 입차 및 출차를 제어하는 lpr 시스템 및 그의 제어 방법
KR101879444B1 (ko) * 2018-03-05 2018-07-17 (주)아성정보 Cctv 구동 방법 및 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111973228A (zh) * 2020-06-17 2020-11-24 谈斯聪 B超数据采集分析诊断一体化机器人,平台
WO2023029510A1 (zh) * 2021-08-30 2023-03-09 康键信息技术(深圳)有限公司 基于人工智能的远程问诊方法、装置、设备及介质
CN113721636A (zh) * 2021-10-11 2021-11-30 珠海城市职业技术学院 一种基于移动机器人平台的ai视频跟踪系统

Also Published As

Publication number Publication date
WO2020122662A1 (ko) 2020-06-18

Similar Documents

Publication Publication Date Title
KR101981326B1 (ko) 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법
US20220046292A1 (en) Networked system for real-time computer-aided augmentation of live input video stream
KR100989081B1 (ko) 네트워크 카메라를 이용한 이벤트 감시 시스템 및 방법
US20110142233A1 (en) Server and camera for video surviellance system and method for processing events in the same system
WO2012060679A1 (en) Community-based smart home system
AU2019231258B2 (en) System and method for preventing false alarms due to display images
CN104993984B (zh) 一种物联网视觉智能感知系统及方法
CN106791703B (zh) 基于全景视图来监视场景的方法和系统
JP2017212680A (ja) 画像処理装置、画像処理方法およびプログラム
KR101685950B1 (ko) 자가 고장 진단 기능이 구비된 올인원 녹화 장치
JP6218471B2 (ja) 撮像装置、外部装置、撮像システム、撮像装置の制御方法、外部装置の制御方法、撮像システムの制御方法、及びプログラム
CN110557607A (zh) 图像处理设备、信息处理设备、信息处理方法和记录介质
KR101523142B1 (ko) 감시 카메라를 사용하여 홈 시큐리티 서비스를 제공하는 OSGi 기반의 서버 및 홈 시큐리티 서비스 제공 방법
US11979660B2 (en) Camera analyzing images on basis of artificial intelligence, and operating method therefor
KR20130096439A (ko) 반도체 장비의 원격 모니터링 및 제어 시스템
CN104601629A (zh) 处理方法及设备、控制设备及工作方法、控制方法及系统
JP2001319279A (ja) 侵入物体監視方法及び侵入物体監視システム
CN114581598A (zh) 基于三维实景与现场视频融合管理的服务集成框架
JP2002005699A (ja) リモート検査支援方法及びリモート検査支援システム
KR20140146429A (ko) 스마트 디바이스를 이용한 cctv 영상 획득 및 관리 시스템 및 그 방법
JP2010055263A (ja) 監視制御システム
CN114185059A (zh) 基于多雷达融合的多人跟踪系统、方法、介质、终端
JP7085925B2 (ja) 情報登録装置、情報処理装置、情報登録装置の制御方法、情報処理装置の制御方法、システム、及びプログラム
KR20100070567A (ko) Spi 통신을 이용한 네트워크 기반 고속 센서 모니터링 시스템 및 방법
KR102027431B1 (ko) 데이터 처리 기능이 포함된 사물인터넷 기반의 시설물에 대한 원격 통합 관제 및 제어용 게이트웨이 단말장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant