KR102631324B1 - 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법 - Google Patents

지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법 Download PDF

Info

Publication number
KR102631324B1
KR102631324B1 KR1020220160721A KR20220160721A KR102631324B1 KR 102631324 B1 KR102631324 B1 KR 102631324B1 KR 1020220160721 A KR1020220160721 A KR 1020220160721A KR 20220160721 A KR20220160721 A KR 20220160721A KR 102631324 B1 KR102631324 B1 KR 102631324B1
Authority
KR
South Korea
Prior art keywords
intelligent vision
vision robot
robot
user terminal
target
Prior art date
Application number
KR1020220160721A
Other languages
English (en)
Inventor
조한희
Original Assignee
(주)인티그리트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인티그리트 filed Critical (주)인티그리트
Priority to KR1020220160721A priority Critical patent/KR102631324B1/ko
Application granted granted Critical
Publication of KR102631324B1 publication Critical patent/KR102631324B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q2220/00Business processing using cryptography
    • G06Q2220/10Usage protection of distributed data files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2463/00Additional details relating to network architectures or network communication protocols for network security covered by H04L63/00
    • H04L2463/041Additional details relating to network architectures or network communication protocols for network security covered by H04L63/00 using an encryption or decryption engine integrated in transmitted data

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Bioethics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템은 촬영하고자 하는 대상물 및/또는 목적물의 조건정보를 입력하는 사용자 단말; 전송된 대상물 및/또는 목적물을 식별하기 위한 컨텍스트를 수신 및 설정하고, 상기 컨텍스트의 정보에 따라 해당 대상물 및/또는 목적물을 추적 및 촬영하는 지능형 비젼로봇; 및 상기 지능형 비젼로봇에서 송출한 상기 해당 대상물 및/또는 목적물의 개인정보를 비식별화 및 암호화하여 저정한 후, 상기 사용자 단말로부터 상기 대상물 및/또는 목적물을 촬영한 영상물에 대한 개인정보 데이터의 소유권한 인증이 확인되면, 상기 대상물 및/또는 목적물을 촬영한 영상물을 상기 사용자 단말로 송출하는 지능형 비젼로봇 관리서버를 포함한다.

Description

지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법{Systems and methods for providing user services through intelligent vision robots}
본 발명은 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법에 관한 것이다.
실 공간에는 음식점, 서점, 가게 등 다양한 형태의 POI가 존재한다. 이러한 POI에 대한 정보(이하, 'POI 정보')를 지도에 표시하거나 사용자에게 제공하기 위해서는 해당 POI 정보를 수집해야 한다. 종래에는 사람이 직접 도보 또는 차량 등을 이용하여 실제 공간을 방문하여 POI의 위치와 종류, 이름 등을 직접 확인하여 시스템에 기록하거나 또는 카메라가 설치된 차량을 이용하여 실제 공간, 도로 등의 영상을 카메라로 촬영하고, 추후 사람이 촬영된 영상을 분석하여 POI의 종류, 이름 등을 인식하여 시스템에 기록하는 방법을 사용하였다.
예를들어, 한국공개특허 제10-2011-0037045호는 차량의 카메라를 이용한 영상 수집 시스템 및 그 제어 방법에 관한 기술로, 차량에 장착된 카메라를 이용하여 촬영이 필요한지의 여부에 따라 해당 지역 또는 거리를 촬영하여 데이터베이스를 구축하고, 택시, 택배 트럭 또는 버스 등과 같이 다양한 지역을 이동하는 차량에 카메라를 장착하는 경우 보다 많은 지역 또는 거리를 촬영하여 사용자에게 보다 많은 지도 상의 영상 정보를 적은 비용으로 제공할 수 있음을 개시하고 있다.
그러나, 이러한 종래기술은 결국 실 공간에 있는 POI 정보를 확인하기 위해 사람이 해당 POI가 있는 위치에 방문하여 직접 정보를 확인 및 기록하거나 혹은 해당 위치를 방문하여 해당 위치를 촬영하고 추후에 사람이 촬영된 영상을 확인하여 정보를 확인 및 기록하는 등, 처리 과정 전반에 걸쳐 사람이 반드시 개입하여야 하기 때문에, 데이터 수집과 이를 분석하여 처리하는데 비용과 시간, 노력이 많이 소모될 수 밖에 없다는 문제점이 있다.
또한, 이미 어떠한 실 공간 영역에 대한 POI 정보를 확보하고 있다고 하더라도, POI 정보는 신규오픈, 폐점 등으로 인해 수시로 변경될 수 있다. 따라서 POI의 변화를 즉각 인지하기 위해서는 해당 공간 영역에 대한 빈번한 모니터링을 통한 POI 정보의 신속한 업데이트가 필요하나, 사람이 개입되는 처리 방법으로는 이 또한 비용과 많은 노력이 소모되어 실질적으로 POI의 변동과 관련된 최신의 정보를 획득/제공하는 것이 사실상 거의 불가능하다.
특히 실 공간의 범위가 넓은 경우 POI의 변화에 따른 최신의 POI 정보를 확인하는 과정이 더욱 어려워 진다는 문제점이 있다.
한국공개특허 제10-2020-0044313호
본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법을 제공하는 데 그 목적이 있다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템은 촬영하고자 하는 대상물 및/또는 목적물의 조건정보를 입력하는 사용자 단말; 상기 대상물 및/또는 목적물을 식별하기 위한 컨텍스트를 수신 및 설정하고, 상기 컨텍스트의 정보에 따라 해당 대상물 및/또는 목적물을 추적 및 촬영하는 지능형 비젼로봇; 및 상기 지능형 비젼로봇에서 송출한 촬영 영상물 내의 대상물 및/또는 목적물이 인물일 경우, 상기 인물의 개인정보를 비식별화 및 암호화하여 저장한 후, 상기 사용자 단말로부터 상기 대상물 및/또는 목적물을 촬영한 영상물에 대한 소유권한 인증이 확인되면, 상기 대상물 및/또는 목적물을 촬영한 영상물을 상기 사용자 단말로 송출하는 지능형 비젼로봇 관리서버를 포함하고, 상기 지능형 비젼로봇은 검출된 목적물 및/또는 대상물이 인물일 경우, 촬영동의를 음성 또는 시각정보로 요청하고, 상기 인물로부터 촬영동의에 대한 긍정 또는 부정반응을 상기 인물의 음성 또는 손흔들기 동작으로 판단하고, 상기 지능형 비전로봇 관리서버는 상기 지능형 비젼로봇에서 송출한 영상물을 일정 시간 후 자동으로 삭제처리하고, 상기 사용자 단말에서 입력한 조건정보에 부합하는 목적물 및/또는 대상물을 지능형 비젼로봇이 감지, 추적 및 촬영하는 일련의 동작을 수행하기 위한 로봇 명령어 리스트인 상기 컨텍스트로 생성하여 제공하는 것을 특징으로 한다.
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 방법은 사용자 단말에서 촬영하고자 하는 목적물 및/또는 대상물의 조건정보(컨텍스트)를 입력하는 단계; 지능형 비젼로봇 관리서버에서 상기 조건정보(컨텍스트)가 반영된 로봇 명령어를 생성하여 지능형 비젼로봇으로 전송하는 단계; 상기 지능형 비젼로봇에서 상기 조건정보(컨텍스트)에 부합하는 목적물 및/또는 대상물을 탐색, 추적 이동하는 단계; 상기 지능형 비젼로봇에서 상기 목적물 및/또는 대상물이 인물일 경우, 촬영동의 의사를 음성 또는 영상을 제공한 후, 상기 목적물 및/또는 대상물의 음성 및 손흔들기 동작을 기초로 촬영동의에 대한 긍정 또는 부정 반응을 판단하는 단계; 상기 목적물 및/또는 대상물로부터 촬영동의가 승인되면, 상기 지능형 비젼로봇에서 상기 목적물 및/또는 대상물을 촬영한 후, 촬영 영상물을 암호화 및 비식별화 가공처리 후, 상기 지능형 비젼로봇 관리서버로 송출하는 단계; 상기 지능형 비젼로봇 관리서버에서 상기 촬영 영상물의 소유권 인증을 상기 사용자 단말로 요청하는 단계; 및 상기 사용자 단말에서 인증처리가 완료되면, 상기 지능형 비젼로봇 관리서버에서 상기 촬영 영상물을 상기 사용자 단말로 송출하는 단계를 포함하고, 상기 지능형 비전로봇 관리서버는 상기 지능형 비젼로봇에서 송출한 촬영 영상물을 일정 시간 후 자동으로 삭제처리하고, 상기 사용자 단말에서 입력한 조건정보에 부합하는 목적물 및/또는 대상물을 지능형 비젼로봇이 감지, 추적 및 촬영하는 일련의 동작을 수행하기 위한 로봇 명령어 리스트인 상기 컨텍스트로 생성하여 제공하는 것을 특징으로 한다.
따라서, 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법을 이용하면, 카메라와 비전인식 센서를 가진 이동 자율주행 로봇을 통하여, 불특정된 대상(인물, 사물)의 요청, 사전 설정된 조건을 인식하여 대상을 따라 이동한 이후, 대상의 데이터 취득 의사를 인식하여, 목적물(인물, 특정 사물, 배경)의 사진, 비디오 등의 정보를 취득 및 촬영하고, 최적화된 데이터로 가공하여 다시 대상의 지정된 이동기기(스마트폰) 등으로 제공할 수 있다는 이점이 있다.
도 1은 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템의 네트워크 구성도이다.
도 2는 도 1에 도시된 지능형 비젼로봇의 장치 구성도이다.
도 3은 도 1에 도시된 지능형 비젼로봇 관리서버의 장치 구성도이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 방법을 설명한 흐름도이다.
도 6은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관 계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해 되어야 한다. 명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차 가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절 대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양 방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어 에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말 의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석 될 수 있다.
이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법을 보다 상세하게 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템의 네트워크 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템(100)은 지능형 비젼로봇(10), 사용자 단말(20) 및 지능형 비젼로봇 관리서버(30)를 포함한다.
각 구성은 네트워크로 통신하며, 상기 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5rd Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다할 것이다.
상기 지능형 비젼로봇(10)은 후술하는 지능형 비젼로봇 관리서버(30)에서 전달한 컨텍스트 내에 조건정보에 부합하는 목적물 및/또는 대상물을 검출 및 추적 이동한 후, 해당 검출된 목적물 및/또는 대상물을 촬영하는 구성일 수 있다.
여기서, 컨텍스트(Context)는 사용자 혹은 관리자가 목적물을 식별하기 위해 설정하는 상황 조건식 정보일 수 있다.
상기 컨텍스트(Context)의 일 예로, ①"비가오는 날일 경우 & 노란색 우산을 쓴 & 유소년(어린이)& 추적해 사진을 찍어 위치와 함께 지정위치로 송출해 달라” 또는 “오늘 네이버 주요 뉴스에 노출된 사람과&, 이 번달 베스트 걸그룹과 & 닮은 사람이 있으면 & 사진을 찍어라”는 등의 조건을 갖는 문장 구조의 텍스트일 수 있다.
상기 컨텍스트(Context)은 5WIH 형태로 정형화된 문장 조건구조를 가질 수 있다. 예컨대, 누가(Who), 언제(When), 어디서(Where), 무엇을(What), 어떻게(How), 왜(Why)와 관련된 단어 또는 문장을 포함한다.
상술한 5WIH 형태로 정형화된 문장 조건구조을 갖는 컨텍스트(context)를 이용하여 사용자(또는 대상물)의 신원, 사용자(또는 대상물)의 위치, 시간 정보 등과 연관된 정보를 수집 및 제공할 수 있다.
즉, 지능형 비젼로봇(10)은 컨텍스트 인식 서비스(Context Aware Service)를 지원한다. 여기서, 컨텍스트 인식 서비스(Context Aware Service)는 사용자의 상태와 주변환경에 관한 정보를 기반으로 사용자의 요구를 판단하고, 사용자의 정황에 맞는 적응적이고 능동적인 서비스를 제공한다.
또한, 상기 지능형 비젼로봇(10)은 검출된 목적물 및/또는 대상물로 촬영동의를 음성 또는 시각정보로 요청하고, 목적물 및/또는 대상물로부터 촬영동의에 대한 긍정 또는 부정반응을 음성 또는 시각정보로 판단하는 구성일 수 있다.
또한, 상기 지능형 비젼로봇(10)은 모든 자율주행 로봇, 모빌리티는 주행외 공간, 환경분석을 위한 라이다, 카메라, 비주얼 센서를 내장한 로봇일 수 있다.
따라서, 상기 지능형 비젼로봇(10)은 라이다, 비전 카메라, 비주얼 센서를 탑재한 자율주행 모빌리티 또는 로봇일 수 있다.
상기 지능형 비젼로봇(10)은 관리자의 설정 또는 불특정 사용자의 사전 설정, 현장의 요청에 따라 해당 위치로 자율주행하여 이동하거나, 목적물 대상을 추종한 후, 자율주행하여 목적물의 대상을 검색하는 구성일 수 있다.
상기 지능형 비젼로봇(10)은 취득한 사진과 영상, 위치 등의 특성 데이터를 취득하여 암호화한 후, 지능형 비젼 로봇 관리서버(30)로 송출하는 구성일 수 있다.
참고로, 상기 지능형 비젼로봇(10)은 실내 및 실외 공간을 주행하면서 사람 및/또는 사물의 특성정보를 수집하기 위한 구성일 수 있다.
또한, 상기 지능형 비젼로봇(10)는 지정된 이동 경로 상에서 장애물 감지 회피, 온도, 습도, 또는 공기 상태 등과 같은 환경 정보 인지, 추적, 변화 감지, 고속 이동, 영상 감시, 또는 사각지대 결정 등 다양한 동작들을 수행할 수 있다.
실시 예에 따라 상기 지능형 비젼로봇(10)은 이동 로봇, 감시용 이동 로봇, 또는 감시용 로봇 등 다양한 용어들로 호칭될 수 있다.
상기 지능형 비젼로봇(10)는 프로세서(11), 메모리(12), 로봇 카메라(13), 라이다 센서부(14), 데이터 가공부(15), 촬영의사 진행 처리부(16), 자율주행부(17) 및 통신부(18)를 포함한다.
상기 프로세서(210)는 지능형 비젼로봇(20)의 동작들을 제어하는 명령들을 실행한다.
또한, 상기 프로세서(11)는 후술하는 로봇 카메라(13) 및 라이다 센서(14)에서 검출된 사물 및/또는 사람의 특성정보, 공간좌표정보를 추출 또는 산출하는 구성일 수 있다.
또한, 상기 프로세서(11)는 로봇 카메라(13)의 촬영정보 및 라이다 센서에서 검출한 라이다 신호를 통해 실외, 실내공간에 위치하는 사람 및/또는 사물을 검출하고, 검출된 사물 및 사람의 외형특성을 객체 인식 모델을 통해 추출하는 구성일 수 있다.
상기 객체 인식 모델은 SIFT(Scale Invariant Feature Transform) 알고리즘, HOG(Histogram of Oriented Grandients) 알고리즘, Haar 알고리즘, Ferm 알고리즘 등 다 양한 알고리즘을 이용하여 구현될 수 있다.
또한, 상기 프로세서(11)는 인식된 사람 및/또는 사물의 외형특성 중 개인정보 또는 개인정보와 관련된 정보를 비 식별화처리하는 구성일 수 있다.
또한, 상기 프로세서(11)는 상기 사물 및/또는 사람을 검출한 위치 및 상기 사람 및/또는 사물과의 검출거리를 기초로 실외, 실내공간 내에 사물 및 사람의 위치 및 밀집도 등을 산출하는 구성일 수 있다.
여기서, 밀집도는 특정 영역에 분포 또는 위치되어 있는 라이다 데이터들의 개수를 기준으로 판단되며, 라이다 데이터들의 연관성은 라이다 데이터들 사이의 유클리드 거리, 반사율, 법선 벡터 등을 기준으로 판단된다.
즉, 프로세서(11)는 라이다 데이터들이 분포되어 있는 정도와 라이다 데이터들 사이의 유사도를 기준으로 유사한 영역에 분포되고 유사한 속성을 가지는 라이다 데이터들을 판별하여 이들을 개별적인 그룹으로 군집화할 수 있다.
또한, 상기 프로세서(11)는 상기 사물 및/또는 사람의 특성 데이터를 추출하는 데 필요한 센서 데이터 및 상기 특성 데이터를 암호화된 메시지로 가공처리한 후, 후술하는 메모리(12)에 저장하는 구성일 수 있다.
또한, 메모리(12)에 저장된 메시지들을 워커 스레드에서 하나의 레코드로 가공처리하여 제공하는 구성일 수 있다.
또한, 메모리(12)는 프로세서(11)에서 처리된 레코드를 저장하는 구성일 수 있다.
또한, 메모리(12)는 자율주행 중 수집되는 다양한 환경정보(소리 등)를 저장하는 공간일 수 있다.
또한, 메모리(12)는 지능형 비젼로봇(10)의 동작을 위한 데이터들, 명령어들(응용프로그램)을 저장할 수 있다.
이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 메모리(220)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.
상기 로봇 카메라(13)는 이동경로 상의 실외, 실내공간을 촬영하는 구성일 수 있다. 촬영영상은 상술한 프로세서에서 사물 및/또는 사람인지를 인식 또는 판단하고, 사물 및/또는 사람의 특성정보(얼굴, 신체, 성별 등)을 추출하는 데 사용된다.
상기 라이다 센서부(14)는 후술하는 지능형 비젼로봇 관리서버(30)에서 제공한 컨텍스트의 조건정보에 부합하는 사물 및/또는 사람의 위치를 측정하는 구성일 수 있다. 참고로, 라이다 센서부(14)는 원거리에 폭 넓은 시야각으로 공간의 사물 위치 측정이 가능하여 일부 물체의 위치에 변경이 있더라도 공간의 제한된 영역 안에서 자신의 위치를 추종하는 데 사용되는 구성이다.
참고로, 라이다 센서부(14)는 레이더 파장의 빛을 외부로 방출하고, 이 방출된 빛이 외부 객체에 반사되어 되돌아오는 데 소요되는 시간을 측정하여 사물 및/또는 사람의 위치에 대한 정보(라이다 데이터)를 생성한다.
한편, 본 발명의 라이다 센서부(14)는 라이다 데이터를 이용하여 객체(사물 및 사람)의 존재 여부뿐만 아니라, 객체의 종류도 분류하도록 하기 위하여 2D 라이다 센서가 복수의 레이어로 구성된 3차원 라이다 센서일 수 있다.
다만, 2D 라이다 센서를 틸팅시키거나 회전시키는 경우 3차원 정보가 포함된 라이다 데이터가 확보될 수 있으므로, 본 발명에서 이용되는 라이다 센서부(14)는 틸팅 또는 회전이 가능하도록 구성된 2D 라이다 센서로 구현될 수 있음은 물론이다.
상기 데이터 가공부(15)는 지능형 비젼로봇 관리서버(30)에서 제공한 컨텍스트의 조건정보에 부합하는 목적물 또는 대상물을 촬영한 영상물 내에 개인정보 보안을 위하여 영상물을 암호화 및 비식별화되도록 가공처리하는 구성일 수 있다.
상기 촬영의사 진행 처리부(16)는 지능형 비젼로봇 관리서버(30)에서 제공한 컨텍스트의 조건정보에 부합하는 목적물 또는 대상물이 라이다 센서부(14)를 통해 감지될 경우, 로봇 카메라(13)에서 해당 목적물 및/또는 대상물의 사진, 비디오 촬영에 대한 동의를 구하기 위한 이미지 또는 음성을 출력하고, 해당 목적물 및/또는 대상물의 피드백 반응(음성 또는 이미지)을 분석하여 촬영동의 여부를 판단하는 구성일 수 있다.
상기 촬영의사 진행 처리부(16)는 목적물이 인물일 경우, 대상의 손흔들기 등의 비전인식 프로그램을 이용하여 촬영 동의 의사를 판단할 수 있거나, 음성일 경우, 음성텍스트 변환 프로그램을 이용하여 촬영 동의 의사를 판단할 수 있다.
다음으로, 상기 자율주행부(17)는 후술하는 지능형 비젼로봇 관리서버(30)에서 제공한 컨텍스트의 조건정보에 부합하는 사물 및/또는 사람의 위치를 라이다 센서부(14)에서 검출할 경우, 해당 검출된 위치로 자율적 주행하도록 하기 위한 구성으로, 장애물을 감지하는 라이다 센서, 위성 항법 자율주행 알고리즘 등이 탑재된 구성으로, 자율주행에 대한 기술은 공지된 기술에 불과함으로 보다 상세한 설명은 생략하도록 한다.
상기 통신부(18)는 후술하는 디지털 트윈 맵 제작서버와 양방향 통신하는 구성으로, 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다.
이때, 상기 외부의 임의의 단말기는 서버(미도시), 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.
또한, 상기 통신부(18)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.
또한, 상기 통신부(18)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.
다음으로, 사용자 단말(20)은 후술하는 지능형 비젼 로봇 관리서버(30)에 접속가능한 플랫폼(앱)을 이용하여 지능형 비젼로봇(10)을 통해 촬영하고자 하는 대상물 및/또는 목적물의 조건정보를 입력하는 구성일 수 있다.
여기서, 조건정보는 인물, 사물 등과 같이 객체를 식별할 수 있는 정보일 수 있거나, 사건, 환경 등과 같은 공간정보를 식별하기 위한 정보일 수 있다.
또한, 상기 사용자 단말(20)은 후술하는 지능형 비젼 로봇 관리서버(30)에 접속가능한 플랫폼(앱)을 이용하여 기 설정된 반경 내에 지능형 비젼로봇(10)의 위치정보를 확인할 수 있는 단말일 수 있다.
또한, 상기 사용자 단말(20)은 후술하는 지능형 비젼 로봇 관리서버(30)에 접속가능한 플랫폼(앱)을 이용하여 사용자가 입력한 조건정보에 부합한 목적물 및/또는 대상물을 촬영한 영상물의 개인정보 소유권한을 인증한 후, 지능형 비젼 로봇 관리서버(30)로 해당 영상물을 제공받는 단말일 수 있다.
이때, 상기 사용자 단말(20)은 지정된 IRDA, QR 코드 등의 인증방법을 통해 인증 절차를 수행할 수 있고, 요청한 조건정보에 부합하는 목적물 및/또는 대상물의 영상물 이외에 목적물 및/또는 대상물의 위치, 측위, 주소, 날짜 시각, 촬영기온 등의 정보를 추가 제공받는 단말일 수 있다.
다음으로, 지능형 비젼로봇 관리서버(30)는 상기 지능형 비젼로봇에서 송출한 상기 해당 대상물 및/또는 목적물의 개인정보를 비식별화 및 암호화하여 저정한 후, 상기 사용자 단말로부터 상기 대상물 및/또는 목적물을 촬영한 영상물에 대한 개인정보 데이터의 소유권한 인증이 확인되면, 상기 대상물 및/또는 목적물을 촬영한 영상물을 상기 사용자 단말로 송출하는 구성일 수 있다.
또한, 상기 지능형 비젼로봇 관리서버(30)는 지능형 비젼 로봇(10)에서 송출한 영상물을 일 정 시간 후 자동으로 삭제처리하여 해당 영상물의 외부 유출을 차단 방지하도록 데이터베이스를 구축한 서버일 수 있다.
또한, 상기 지능형 비젼로봇 관리서버(30)는 지능형 비젼 로봇(10)이 촬영한 목적물 및/또는 대상물을 촬영한 공간정보(위치, 주소, 측위, 날씨, 기온, 시각 등)를 추가정보로 제공하는 서버일 수 있다.
보다 구체적으로, 지능형 비젼로봇 관리서버(30)는 조건정보 입력부(31), 컨텍스트 제공부(32), 정보수집 처리부(33), 인증처리부(34) 및 비젼로봇 관리부(35)를 포함한다.
상기 조건정보 입력부(31)는 사용자 단말에서 플랫폼(앱)을 통해 제공한 목적물 및/또는 대상물의 조건정보(인물, 사물, 환경 등)을 입력하는 구성일 수 있다.
상기 컨텍스트 제공부(32)는 조건정보 입력부(31)에서 입력한 조건정보에 부합하는 목적물 및/또는 대상물을 지능형 비젼로봇이 감지, 추적 및 촬영하는 일련의 동작을 수행하기 위한 로봇 명령어가 포함된 컨텍스트로 생성하여 제공하는 구성일 수 있다.
다음으로, 정보수집 처리부(33)는 지능형 비젼로봇(10)에서 송출한 암호화 및 비식별화 처리된 영상물과 공간정보(위치, 주소, 측위, 날씨, 기온, 시각 등)를 수집하는 구성일 수 있다.
다음으로, 인증처리부(34)는 정보수집 처리부(33)로 수집된 영상물을 사용자 단말(20)로 송출 시, 상기 사용자 단말로부터 상기 대상물 및/또는 목적물을 촬영한 영상물에 대한 개인정보 데이터의 소유권한 인증을 확인하기 위하여 IRDA, QR 코드 등을 이용하여 사용자 인증을 수행하는 구성일 수 있다.
다음으로, 상기 비젼로봇 관리부(35)는 지능형 비젼로봇의 위치, 실행상태 유무를 실시간으로 모니터링하는 구성일 수 있다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 방법을 설명한 흐름도이다.
도 4 및 도 5를 참조하면, 본 발명의 일 실시예에 따른 지능형 비전로봇을 통한 사용자 서비스를 제공하는 방법(S700)은 먼저, 사용자 단말에서 촬영하고자 하는 목적물 및/또는 대상물의 조건정보를 입력(S710)하면, 지능형 비젼로봇 관리서버에서 상기 조건정보가 반영된 컨텍스트를 생성하여 지능형 비젼로봇으로 전송(S720)한다. 이후, 상기 지능형 비젼로봇에서 상기 컨텍리스트의 조건정보에 부합하는 목적물 및/또는 대상물을 탐색, 추적 이동(S730)하면, 상기 지능형 비젼로봇에서 상기 목적물 및/또는 대상물로 촬영동의 의사를 음성 또는 영상을 제공한 후, 상기 목적물 및/또는 대상물로부터 촬영동의에 대한 긍정 또는 부정 반응을 판단(S740)한다.
이후, 상기 목적물 및/또는 대상물로부터 촬영동의가 승인되면, 상기 지능형 비젼로봇에서 상기 목적물 및/또는 대상물을 촬영한 후, 촬영 영상물을 암호화 및 비식별화 가공처리 후, 상기 지능형 비젼로봇 관리서버로 송출(S750)하고, 상기 지능형 비젼로봇 관리서버에서 상기 촬영 영상물의 개인정보 소유권 인증을 상기 사용자 단말로 요청(S760)하면, 상기 사용자 단말에서 인증처리가 완료되면, 상기 지능형 비젼로봇 관리서버에서 상기 촬영 영상물을 송출(S770)하는 일련의 과정을 포함할 수 있다.
따라서, 본 발명의 일 실시예에 따른 지능형 비전로봇 서비스를 지원하는 시스템 및 방법을 이용하면, 카메라와 비전인식 센서를 가진 이동 자율주행 로봇을 통하여, 불특정된 대상(인물, 사물)의 요청, 사전 설정된 조건을 인식하여 대상을 따라 이동한 이후, 대상의 데이터 취득 의사를 인식하여, 목적물(인물, 특정 사물, 배경)의 사진, 비디오 등의 정보를 취득 및 촬영하고, 최적화된 데이터로 가공하여 다시 대상의 지정된 이동기기(스마트폰) 등으로 제공할 수 있다는 이점이 있다.
도 6은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.
컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다.
여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다.
또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다.
여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다.
예를 들어, 구성요소는 프로세서 상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터 상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.
이상에서 설명한 것은 본 발명에 의한 자율 주행 기기를 이용한 사용자 맞춤 정보 제공 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.
100: 지능형 비젼로봇 서비스를 지원하는 시스템
10: 지능형 비젼로봇
11: 프로세서
12: 메모리
13: 로봇 카메라
14: 라이다 센서부
15: 데이터 가공부
16: 촬영의사 진행 처리부
17: 자율주행부
18: 통신부
20: 사용자 단말
30: 지능형 비젼로봇 관리서버
31: 조건정보 입력부
32: 컨텍스트 제공부
33: 정보수집 처리부
34: 인증처리부
35: 비젼로봇 관리부

Claims (6)

  1. 촬영하고자 하는 대상물 및/또는 목적물의 조건정보를 입력하는 사용자 단말;
    상기 대상물 및/또는 목적물을 식별하기 위한 컨텍스트를 수신 및 설정하고, 상기 컨텍스트의 정보에 따라 해당 대상물 및/또는 목적물을 추적 및 촬영하는 지능형 비젼로봇; 및
    상기 지능형 비젼로봇에서 송출한 촬영 영상물 내의 대상물 및/또는 목적물이 인물일 경우, 상기 인물의 개인정보를 비식별화 및 암호화하여 저장한 후, 상기 사용자 단말로부터 상기 대상물 및/또는 목적물을 촬영한 영상물에 대한 소유권한 인증이 확인되면, 상기 대상물 및/또는 목적물을 촬영한 영상물을 상기 사용자 단말로 송출하는 지능형 비젼로봇 관리서버를 포함하고,
    상기 지능형 비젼로봇은
    검출된 목적물 및/또는 대상물이 인물일 경우, 촬영동의를 음성 또는 시각정보로 요청하고, 상기 인물로부터 촬영동의에 대한 긍정 또는 부정반응을 상기 인물의 음성 또는 손흔들기 동작으로 판단하고,
    상기 지능형 비전로봇 관리서버는
    상기 지능형 비젼로봇에서 송출한 영상물을 일정 시간 후 자동으로 삭제처리하고,
    상기 사용자 단말에서 입력한 조건정보에 부합하는 목적물 및/또는 대상물을 지능형 비젼로봇이 감지, 추적 및 촬영하는 일련의 동작을 수행하기 위한 로봇 명령어 리스트인 상기 컨텍스트로 생성하여 제공하는
    지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 사용자 단말에서 촬영하고자 하는 목적물 및/또는 대상물의 조건정보(컨텍스트)를 입력하는 단계;
    지능형 비젼로봇 관리서버에서 상기 조건정보(컨텍스트)가 반영된 로봇 명령어를 생성하여 지능형 비젼로봇으로 전송하는 단계;
    상기 지능형 비젼로봇에서 상기 조건정보(컨텍스트)에 부합하는 목적물 및/또는 대상물을 탐색, 추적 이동하는 단계;
    상기 지능형 비젼로봇에서 상기 목적물 및/또는 대상물이 인물일 경우, 촬영동의 의사를 음성 또는 영상을 제공한 후, 상기 목적물 및/또는 대상물의 음성 및 손흔들기 동작을 기초로 촬영동의에 대한 긍정 또는 부정 반응을 판단하는 단계;
    상기 목적물 및/또는 대상물로부터 촬영동의가 승인되면, 상기 지능형 비젼로봇에서 상기 목적물 및/또는 대상물을 촬영한 후, 촬영 영상물을 암호화 및 비식별화 가공처리 후, 상기 지능형 비젼로봇 관리서버로 송출하는 단계;
    상기 지능형 비젼로봇 관리서버에서 상기 촬영 영상물의 소유권 인증을 상기 사용자 단말로 요청하는 단계; 및
    상기 사용자 단말에서 인증처리가 완료되면, 상기 지능형 비젼로봇 관리서버에서 상기 촬영 영상물을 상기 사용자 단말로 송출하는 단계를 포함하고,
    상기 지능형 비전로봇 관리서버는
    상기 지능형 비젼로봇에서 송출한 촬영 영상물을 일정 시간 후 자동으로 삭제처리하고,
    상기 사용자 단말에서 입력한 조건정보에 부합하는 목적물 및/또는 대상물을 지능형 비젼로봇이 감지, 추적 및 촬영하는 일련의 동작을 수행하기 위한 로봇 명령어 리스트인 상기 컨텍스트로 생성하여 제공하는 지능형 비전로봇을 통한 사용자 서비스를 제공하는 방법.
KR1020220160721A 2022-11-25 2022-11-25 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법 KR102631324B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220160721A KR102631324B1 (ko) 2022-11-25 2022-11-25 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220160721A KR102631324B1 (ko) 2022-11-25 2022-11-25 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR102631324B1 true KR102631324B1 (ko) 2024-02-01

Family

ID=89859187

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220160721A KR102631324B1 (ko) 2022-11-25 2022-11-25 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102631324B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180112599A (ko) * 2017-04-04 2018-10-12 엘지전자 주식회사 가상 공간의 캡쳐 방법 및 그 전자장치
KR20200044313A (ko) 2018-10-19 2020-04-29 김선경 노 컷팅툴 3차원 입체 풍경상자
KR20200095057A (ko) * 2019-01-31 2020-08-10 한국기술교육대학교 산학협력단 놀이공원 실행 시스템
KR20200130885A (ko) * 2019-04-30 2020-11-23 에브리봇 주식회사 이동 로봇
KR102462499B1 (ko) * 2022-05-18 2022-11-04 (주)인티그리트 다중 지능형 자율주행 로봇을 통한 디지털 트윈 맵 제작 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180112599A (ko) * 2017-04-04 2018-10-12 엘지전자 주식회사 가상 공간의 캡쳐 방법 및 그 전자장치
KR20200044313A (ko) 2018-10-19 2020-04-29 김선경 노 컷팅툴 3차원 입체 풍경상자
KR20200095057A (ko) * 2019-01-31 2020-08-10 한국기술교육대학교 산학협력단 놀이공원 실행 시스템
KR20200130885A (ko) * 2019-04-30 2020-11-23 에브리봇 주식회사 이동 로봇
KR102462499B1 (ko) * 2022-05-18 2022-11-04 (주)인티그리트 다중 지능형 자율주행 로봇을 통한 디지털 트윈 맵 제작 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11386285B2 (en) Systems and methods of person recognition in video streams
US9749596B2 (en) Systems and methods for automated cloud-based analytics for security and/or surveillance
US11158067B1 (en) Neighborhood alert mode for triggering multi-device recording, multi-camera locating, and multi-camera event stitching for audio/video recording and communication devices
Zhang et al. Edge video analytics for public safety: A review
US10984641B2 (en) Parcel theft deterrence for A/V recording and communication devices
US11196966B2 (en) Identifying and locating objects by associating video data of the objects with signals identifying wireless devices belonging to the objects
US11256951B2 (en) Systems and methods of person recognition in video streams
US20210343136A1 (en) Event entity monitoring network and method
US10511810B2 (en) Accessing cameras of audio/video recording and communication devices based on location
US20190287297A1 (en) Three-dimensional environment modeling based on a multi-camera convolver system
US10482594B2 (en) Multi-perspective imaging system and method
WO2021180004A1 (zh) 视频分析方法、视频分析的管理方法及相关设备
US20160110972A1 (en) Systems and methods for automated cloud-based analytics for surveillance systems
JP2021535508A (ja) 顔認識において偽陽性を低減するための方法および装置
KR102054930B1 (ko) 영상 공유 방법 및 이를 위한 장치
US10891753B2 (en) Device, system and method for notifying a person-of-interest of their location within an estimated field-of-view of a camera
WO2022070781A1 (ja) 情報処理システム及び情報処理方法
KR102631324B1 (ko) 지능형 비전로봇을 통한 사용자 서비스를 제공하는 시스템 및 방법
Koneru et al. Remotely Controlled Surveillance Vehicle with Live Video Streaming
US11945404B2 (en) Tracking and video information for detecting vehicle break-in
US20220027406A1 (en) Method and system for using geographic information to direct video
Rodrigues et al. LoRa System for Monitoring and Facial Recognition
US20230298464A1 (en) Systems and Methods for Distributed Video-Management in Traffic Monitoring Systems

Legal Events

Date Code Title Description
GRNT Written decision to grant