KR20230063132A - 광고 효과를 측정하는 이동형 로봇 장치 및 방법 - Google Patents

광고 효과를 측정하는 이동형 로봇 장치 및 방법 Download PDF

Info

Publication number
KR20230063132A
KR20230063132A KR1020210148048A KR20210148048A KR20230063132A KR 20230063132 A KR20230063132 A KR 20230063132A KR 1020210148048 A KR1020210148048 A KR 1020210148048A KR 20210148048 A KR20210148048 A KR 20210148048A KR 20230063132 A KR20230063132 A KR 20230063132A
Authority
KR
South Korea
Prior art keywords
advertisement
mobile robot
pedestrian
robot device
data
Prior art date
Application number
KR1020210148048A
Other languages
English (en)
Inventor
김현곤
사지원
강기혁
이상민
Original Assignee
(주)뉴빌리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)뉴빌리티 filed Critical (주)뉴빌리티
Priority to KR1020210148048A priority Critical patent/KR20230063132A/ko
Priority to PCT/KR2022/016399 priority patent/WO2023075384A1/ko
Publication of KR20230063132A publication Critical patent/KR20230063132A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Abstract

본 발명은 광고 효과를 측정하는 이동형 로봇 장치 및 방법에 관한 것으로서, 이동형 로봇 장치의 주행 중에 딥러닝 기반 객체인식 알고리즘을 통해 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간 중 적어도 하나를 포함하는 센싱 정보를 획득하는 단계; 및 획득된 센싱 정보에 기초하여, 광고 효과를 측정하는 단계를 포함한다.

Description

광고 효과를 측정하는 이동형 로봇 장치 및 방법{MOBILE ROBOT DEVICE AND METHOD FOR MEASURING ADVERTISEMENT EFFECT}
본 발명은 이동형 로봇 장치에 관한 것으로, 더욱 상세하게는 광고 효과를 측정하는 이동형 로봇 장치 및 방법에 관한 것이다.
지능형 서비스 로봇은 가정이나 다양한 산업분야에서 인간에게 다양한 서비스를 제공하고 정보화시대의 사회적인 네트워크와 유기적으로 결합하고, 가전기기 등과의 원격제어가 가능한 인간친화적인 인터페이스 역할을 수행하고 있다.
이러한 미래 컴퓨팅 환경과 지능형 서비스 로봇이 결합하면 인지 및 감성과 유비쿼터스 환경을 기반으로 한 미래형 로봇으로 발전할 수 있다.
이러한 로봇은 미래의 우리 생활 속에서 환경과 유기적으로 동작하고, 인간과 자연스러운 상호작용을 통해서 지속적 관계를 갖고 성장하여, 인간의 동반자 역할을 할 수 있게 된다.
아직까지는 산업용 로봇이 대부분의 로봇 시장을 차지하고 있지만 서비스 로봇의 편리성으로 인해서 서비스 로봇 시장이 점차 커질 것으로 예상되기 때문에 향후 서비스 로봇을 개발하기 위한 다양한 연구들이 도출되고 진행될 것으로 판단된다. 이에 발맞추어 서비스 로봇을 개발하기 위한 플랫폼, 알고리즘, 제어 기법 등 다양한 기술들이 필요할 것으로 예상된다.
서비스 로봇은 다른 로봇과는 다르게 수행하는 대부분의 작업이 사람과 상호작용하면서 이루어진다. 예를 들어, 가사 도우미 로봇은 자신에게 주어진 일상적인 가사 업무를 수행하면서 사람이 실시간에 요청한 작업들을 처리한다. 그리고 가사 도우미 로봇은 처리한 작업을 사람에게 알리거나 처리한 결과물을 사람에게 전달한다. 그래서 서비스 로봇을 제작하기 위해서는 보행이나 이동과 같은 일반적인 로봇 제작 기술뿐만 아니라 사람의 상황이나 감정에 맞는 상호작용을 처리하는 기술이 기본적으로 필요하다.
한편, 상품 또는 기업의 홍보 및 다양한 정보를 대중에게 알리기 위한 광고가 증대되고 있다. 이러한 광고는 다양한 종류의 단말기를 이용하여 전파되기도 하며, 실외 및 실내에 배치되는 간판의 형태로 개시되기도 한다. 그러나 간판 또는 대형 디스플레이 장치를 이용한 광고판 등을 통한 광고는 그 노출 효과를 정확하게 측정하는 데에 한계가 있다. 즉, 광고주는 해당 간판 또는 광고판의 광고 효과를 정확히 측정할 수 없어서, 자신의 재화를 이용한 광고가 유효한지에 대한 판단에 어려움을 겪고 있는 실정이다.
이러한, 환경에서 미디어 또는 웹 페이지를 이용한 광고와 달리 외부 간판 또는 광고판을 이용한 광고의 노출 효과를 정확히 측정하는 방법이 요구되고 있다.
국내등록특허공보 제10-1557152호 국내공개실용신안공보 제20-2011-0009156호
본 명세서는 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 딥러닝 기반 객체 인식 알고리즘을 활용하여 주행 중에 마주치는 보행자를 식별하여 광고 효과를 측정하는 이동형 로봇 장치 및 방법을 제공하는 데 그 목적이 있다.
이와 같은 목적을 달성하기 위한, 본 명세서의 제1 실시예에 따르면, 본 명세서에 따른 광고 효과를 측정하는 방법은, 광고물을 표시하는 디스플레이를 포함하는 이동형 로봇 장치가 광고 효과를 측정하는 방법에 있어서, 상기 이동형 로봇 장치의 주행 중에 딥러닝 기반 객체인식 알고리즘을 통해 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간 중 적어도 하나를 포함하는 센싱 정보를 획득하는 단계; 및 획득된 센싱 정보에 기초하여, 광고 효과를 측정하는 단계를 포함한다.
바람직하게는, 상기 광고 효과를 측정하는 단계는, 주행 중에 조우한 보행자 중 광고의 가식별 거리에 진입한 보행자를 각각 독립된 객체로 인식하여 보행자의 수를 합산하는 단계; 및 합산된 보행자의 수를 바탕으로 광고 효과를 측정하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 광고 효과를 측정하는 단계는, 식별 범위 내에 진입한 보행자의 안면 인식 및 진행 방향과 속도를 추정하여 시선 방향이 광고물을 향하고 있는 시간을 계산하는 단계; 및 계산된 보행자의 시선 방향이 광고물을 향하고 있는 시간을 바탕으로 광고 효과를 측정하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 시간을 바탕으로 광고 효과를 측정하는 단계는, 상기 광고물에 포함된 객체의 위치 정보와 방향 정보를 추출하는 단계; 상기 광고물에 포함된 객체가 상기 보행자의 시선 방향에 진입하면, 상기 광고물에 포함된 객체의 진입 시점을 판단하는 단계; 상기 광고물에 포함된 객체가 상기 보행자의 시선 방향으로부터 이탈하면, 상기 광고물에 포함된 객체의 이탈 시점을 판단하는 단계; 및 상기 추출된 객체의 위치 정보와 방향 정보를 이용하여 상기 진입 시점으로부터 상기 이탈 시점까지의 상기 광고물의 노출 시간을 산출하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 광고 효과를 측정하는 단계는, 가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간을 계산하는 단계; 및 계산된 가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간에 기초하여, 광고 효과를 측정하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 딥러닝 기반 객체인식 알고리즘을 통해 주행 중 조우한 보행자의 성별을 추정하는 단계; 및 추정된 보행자의 성별에 따라 출력되는 광고물을 변경하는 단계를 더 포함하는 것을 특징으로 한다.
본 명세서의 다른 실시예에 따르면, 본 명세서에 따른 이동형 로봇 장치는, 광고물을 표시하는 디스플레이; 적어도 하나의 인스트럭션이 저장되는 메모리; 센싱부; 및 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 센싱부를 통하여 주행 중에 딥러닝 기반 객체인식 알고리즘을 통해 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간 중 적어도 하나를 포함하는 센싱 정보를 획득하고, 획득된 센싱 정보에 기초하여, 광고 효과를 측정하는 동작을 제어하는 프로세서를 포함한다.
바람직하게는, 상기 프로세서는, 주행 중에 조우한 보행자 중 광고의 가식별 거리에 진입한 보행자를 각각 독립된 객체로 인식하여 보행자의 수를 합산하고, 합산된 보행자의 수를 바탕으로 광고 효과를 측정하는 것을 특징으로 한다.
바람직하게는, 상기 프로세서는, 식별 범위 내에 진입한 보행자의 안면 인식 및 진행 방향과 속도를 추정하여 시선 방향이 광고물을 향하고 있는 시간을 계산하고, 계산된 보행자의 시선 방향이 광고물을 향하고 있는 시간을 바탕으로 광고 효과를 측정하는 것을 특징으로 한다.
바람직하게는, 상기 프로세서는, 가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간을 계산하고, 계산된 가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간에 기초하여, 광고 효과를 측정하는 것을 특징으로 한다.
이상에서 설명한 바와 같이 본 명세서에 의하면, 이동형 로봇 장치의 주행 중에 딥러닝 기반 객체인식 알고리즘을 통해 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간 중 적어도 하나를 포함하는 센싱 정보를 획득하고 획득된 센싱 정보에 기초하여, 광고 효과를 측정하는 이동형 로봇 장치 및 방법을 제공함으로써, 광고 판매자(실외 자율주행 로봇 사업자)가 광고주에게 광고를 판매하고자 할 때 명확한 가격 산정의 근거를 제시할 수 있다.
도 1은 본 발명의 실시예에 따른 이동형 로봇 장치가 사용자에게 서비스를 제공하는 예시를 나타내는 도면,
도 2는 본 발명의 제1 실시예에 따른 이동형 로봇 장치가 상호작용형 광고를 제공하는 방법을 나타낸 흐름도,
도 3은 본 발명의 제2 실시예에 따른 이동형 로봇 장치가 광고 효과를 측정하는 방법을 나타낸 흐름도,
도 4는 본 발명의 제2 실시예에 따른 이동형 로봇 장치가 서버와 연동함으로써, 광고 효과를 측정하는 예시를 나타내는 도면,
도 5 및 도 6은 본 발명의 실시예에 따른 이동형 로봇 장치의 블록도,
도 7은 본 발명에 따른 프로세서의 블록도,
도 8은 본 발명의 실시예에 따른 데이터 학습부의 블록도, 및
도 9는 본 발명의 실시예에 따른 데이터 인식부의 블록도이다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는 데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 발명의 실시예에서는, 이동형 로봇 장치의 전면, 좌우 측면, 후면 및 상부 평면에 소정의 공간을 확보하여 광고물을 게재할 수 있다.
또한, 광고물은, 1) 로봇 외관에 부착 게재되는 인쇄물 형태의 광고를 의미하거나, 2) 안전한 주행에 지장을 주지 않는 범위 내에서 입체적으로 제작되어, 로봇 외관에 고정 부착하는 조형물로, 광고하고자 하는 상품이나 상징물의 형태를 띠고 있으며, 주목도를 높이기 위한 조명장치를 의미하거나, 3) 로봇 외관에 부착되는 디스플레이(음성출력장치 포함) 형식의 광고물로, 정지영상 혹은 동영상을 상영할 수 있으며, 필요시 음성도 송출할 수 있고, 주행 경로가 속한 지역 특성이나 조우한 보행자의 성별 및 연령대 등의 특성에 따라 광고 내용을 변경하여 송출할 수 있는 소형 영상 출력 장치를 의미하거나, 4) 보행자와 차량에서 식별 가능하도록 로봇에 부착 게시된 안전 깃발 형태의 현수막을 의미할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니됨을 유의해야 한다.
도 1은 본 발명의 실시예에 따른 이동형 로봇 장치가 사용자에게 서비스를 제공하는 예시를 나타내는 도면이다.
도 1을 참조하면, 이동형 로봇 장치(1000)는 암(arm)장치를 이용하여 사용자에게 서비스를 제공할 수 있다. 예를 들어, 이동형 로봇 장치(1000)는 사용자에게 커피를 배달할 수 있다.
또한, 이동형 로봇 장치(1000)는 별도의 임무를 수행하고 있지 않은 경우, 주행 중 조우한 보행자를 인식하여 각각의 보행자로 하여금 광고물을 식별하도록 할 수 있다. 예를 들어, 이동형 로봇 장치(1000)는 보행자를 인식하고, 보행자의 시선을 추적하여 진행 방향을 변경하며, 보행자의 속도에 맞춰 주행 속도를 조절할 수 있다. 여기서, 이동형 로봇 장치(1000)는 여러 보행자의 위치를 동시에 식별 가능하고, 광고물 가시거리 내 근접 정도와 시선 방향을 기준으로 우선순위를 판단하여 광고물에 대한 보행자의 주목도를 높이는 전술한 단계들을 차례로 실행할 수 있다.
이를 위해, 이동형 로봇 장치(1000)는 주행 중에 실시간으로 주변의 복수의 이미지들을 획득할 수 있다. 예를 들어, 이동형 로봇 장치(1000)는 이동형 로봇 장치(1000)의 전방, 후방, 좌측, 우측 중 적어도 하나를 촬영할 수 있다. 이동형 로봇 장치(1000)는 복수의 이미지들을 획득함으로써, 보행자를 식별할 수 있다. 또한, 이동형 로봇 장치(1000)는 주행 중에 촬영되는 복수의 이미지들을 메모리에 저장하고, 미리 설정된 용량이 초과되면, 오래된 이미지 데이터부터 삭제할 수 있다.
또한, 이동형 로봇 장치(1000)는 복수의 보행자들의 시선 방향과 속도에 맞춰 최적화된 주행 방향과 속도로 주행함으로써 광고의 주목도를 높일 수 있다.
또한, 이동형 로봇 장치(1000)는 광고물의 형태가 소형 영상 출력 장치인 경우, 딥러닝 기반 객체인식 알고리즘을 통해 주행 중 조우한 보행자의 성별을 추정하고, 그 결과에 따라 광고물을 변경하여 노출할 수 있다. 예를 들면, 이동형 로봇 장치(1000)는 남성 보행자에게는 면도기 광고를 노출하다가 여성 보행자가 접근하면 해당 광고를 화장품 광고로 변경할 수 있다.
이동형 로봇 장치(1000)는 딥러닝 기반 객체인식 알고리즘을 통해 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치 및 방향은 물론 가식별 거리 내에 머무른 시간을 측정하며, 이를 바탕으로 광고 효과와 그에 따른 광고 가격을 측정할 수 있다. 여기서, 이동형 로봇 장치(1000)는 광고물에 포함된 객체의 위치 정보와 방향 정보를 추출하고, 광고물에 포함된 객체가 보행자의 시선 방향에 진입하면, 광고물에 포함된 객체의 진입 시점을 판단하며, 광고물에 포함된 객체가 보행자의 시선 방향으로부터 이탈하면, 광고물에 포함된 객체의 이탈 시점을 판단함으로써, 추출된 객체의 위치 정보와 방향 정보를 이용하여 진입 시점으로부터 이탈 시점까지의 광고물의 노출 시간을 산출할 수 있다.
예를 들면, 이동형 로봇 장치(1000)는 주행 중에 조우한 보행자 중 광고의 가식별 거리에 진입한 보행자를 각각 독립된 객체로 인식하고, 그 수를 합산하며, 이를 바탕으로 광고 효과를 측정할 수 있다. 이때, 이동형 로봇 장치(1000)는 같은 주행 경로 상에서 동일한 보행자가 연속적으로 가식별 범위 내에서 식별되는 경우에는 노출 횟수에 합산하지 않는 것이 바람직하다.
또한, 이동형 로봇 장치(1000)는 가식별 범위 내에 진입한 보행자의 안면 인식 및 진행 방향과 속도를 추정하여 시선 방향이 광고물을 향하고 있는 시간을 계산하고, 이를 바탕으로 광고 효과를 측정할 수 있다. 구체적으로는, 이동형 로봇 장치(1000)는 가식별 범위 내에 보행자가 위치한 시간과, 시선 방향이 광고물을 향하고 있는 시간을 서로 별도로 취급하는데, 후자의 경우 광고 효과가 더 높은 것으로 판단할 수 있다.
또한, 이동형 로봇 장치(1000)는 가식별 범위 내에 진입한 보행자와 자신의 거리, 가식별 범위 내에 머무른 시간, 보행자의 시선 방향이 광고물을 향했는지 여부와 그 시간 등을 계산하여 광고에 대한 주목도를 계산할 수 있고, 이에 따라 광고 효과를 차등 제시할 수 있다.
한편, 이동형 로봇 장치(1000)는, 배달 로봇, 청소 로봇, 가전기기 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있다. 그러나 이에 제한되지 않으며, 이동형 로봇 장치(1000)는 이동 가능하고, 사용자에게 서비스를 제공할 수 있는 모든 종류의 기기를 포함할 수 있다.
또한, 이동형 로봇 장치(1000)는 광고의 주목도를 높이거나, 광고 효과를 측정하기 위하여, 소정의 네트워크를 통하여 중개 서버(2000) 및 다른 장치(미도시)와 통신할 수 있다. 이 경우, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
도 2는 본 발명의 제1 실시예에 따른 이동형 로봇 장치가 상호작용형 광고를 제공하는 방법을 나타낸 흐름도이다.
도 2를 참조하면, 이동형 로봇 장치(1000)는 딥러닝 기반 객체인식 알고리즘을 통해 카메라 또는 센서부를 이용하여 보행자를 식별한다(S210). 이때, 이동형 로봇 장치(1000)는 광고물을 식별할 수 있는 가시거리 내 진입 여부를 구분하여 기록할 수 있다.
이동형 로봇 장치(1000)는 보행자의 진행 방향과 시선 방향을 추정한 후, 보행자의 시선 방향에 따라 주행 경로를 벗어나지 않는 범위 내에서 진행 방향을 변경한다(S220). 따라서, 보행자는 광고물에 더 쉽게 주목할 수 있다.
이동형 로봇 장치(1000)는 보행자의 진행 속도에 따라 안전 속도 범위 내에서 주행 속도를 조절한다(S230). 따라서, 이동형 로봇 장치(1000)는 보행자가 광고물의 가시거리 내에 머무를 수 있는 시간을 최대화할 수 있다.
한편, 본 발명에 따른 이동형 로봇 장치(1000)는 딥러닝 기반 객체인식 알고리즘을 통해 여러 보행자의 위치를 동시에 식별 가능하고, 광고물 가시거리 내 근접 정도와 시선 방향을 기준으로 우선순위를 판단하여 광고물에 대한 보행자의 주목도를 높이기 위해 단계 S210 내지 단계 S230을 순차적으로 반복 실행할 수 있다.
도 3은 본 발명의 제2 실시예에 따른 이동형 로봇 장치가 광고 효과를 측정하는 방법을 나타낸 흐름도이다.
도 3을 참조하면, 이동형 로봇 장치(1000)는 딥러닝 기반 객체인식 알고리즘을 통해 카메라 또는 센서부를 이용하여 보행자를 식별한다(S310). 이때, 이동형 로봇 장치(1000)는 광고물을 식별할 수 있는 가시거리 내 진입 여부를 구분하여 기록한다.
이동형 로봇 장치(1000)는 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간을 포함하는 센싱 정보에 기초하여 광고 효과와 그에 따른 광고 가격을 측정한다(S320).
예를 들면, 이동형 로봇 장치(1000)는 주행 중에 조우한 보행자 중 광고의 가식별 거리에 진입한 보행자를 각각 독립된 객체로 인식하고, 그 수를 합산하며, 이를 바탕으로 광고 효과를 측정할 수 있다. 이때, 이동형 로봇 장치(1000)는 같은 주행 경로 상에서 동일한 보행자가 연속적으로 가식별 범위 내에서 식별되는 경우에는 노출 횟수에 합산하지 않는 것이 바람직하다.
또한, 이동형 로봇 장치(1000)는 가식별 범위 내에 진입한 보행자의 안면 인식 및 진행 방향과 속도를 추정하여 시선 방향이 광고물을 향하고 있는 시간을 계산하고, 이를 바탕으로 광고 효과를 측정할 수 있다. 구체적으로는, 이동형 로봇 장치(1000)는 가식별 범위 내에 보행자가 위치한 시간과, 시선 방향이 광고물을 향하고 있는 시간을 서로 별도로 취급하는데, 후자의 경우 광고 효과가 더 높은 것으로 판단할 수 있다.
또한, 이동형 로봇 장치(1000)는 가식별 범위 내에 진입한 보행자와 자신의 거리, 가식별 범위 내에 머무른 시간, 보행자의 시선 방향이 광고물을 향했는지 여부와 그 시간 등을 계산하여 광고에 대한 주목도를 계산할 수 있고, 이에 따라 광고 효과를 차등 제시할 수 있다.
전술한 방법은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(Firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로컨트롤러 및 마이크로프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
도 4는 본 발명의 제2 실시예에 따른 이동형 로봇 장치가 서버와 연동함으로써, 광고 효과를 측정하는 예시를 나타내는 도면이다.
도 4를 참조하면, 이동형 로봇 장치(1000)는 서버(2000)와 네트워크를 통하여 연결될 수 있으며, 서버(2000)에 의해 기설정된 기준에 따라 광고 효과를 측정할 수 있다.
이 경우, 서버(2000)는, 도 1에서 이동형 로봇 장치(1000)가 수행하는 기능인, 이동형 로봇 장치(1000)의 주변이 위험한 상황인지를 판단하는 기능, 이동형 로봇 장치(1000) 주변의 사람 종류에 관한 정보 및 이동형 로봇 장치(1000)의 주변 환경에 관한 정보를 획득하는 기능, 광고물의 주목도를 높이는 기능 및 광고 효과를 측정하는 기능 중 적어도 하나를 수행할 수 있다.
이 경우, 이동형 로봇 장치(1000) 및 서버(2000)는 각자 자신이 맡은 기능을 수행하기 위하여, 서로 필요한 데이터를 송수신할 수 있다. 예를 들어, 이동형 로봇 장치(1000)는 서버(2000)가 수행하는 소정 기능에 필요한 데이터를 서버(2000)에게 제공할 수 있으며, 이동형 로봇 장치(1000)는 서버(2000)로부터 서버(2000)에 의해 수행된 기능에 따라 생성되는 결과 데이터를 수신할 수 있다. 또한, 서버(2000)는 이동형 로봇 장치(1000)가 수행하는 소정 기능에 필요한 데이터를 이동형 로봇 장치(1000)에게 제공할 수 있으며, 서버(2000)는 이동형 로봇 장치(1000)로부터 이동형 로봇 장치(1000)에 의해 수행된 기능에 따라 생성되는 결과 데이터를 수신할 수 있다.
또한, 서버(2000)는 이동형 로봇 장치(1000)의 주변이 위험한 상황인지를 판단하는 데 필요한 데이터, 이동형 로봇 장치(1000) 주변의 사람 종류에 관한 정보 및 이동형 로봇 장치(1000)의 주변 환경에 관한 정보를 획득하기 위해 필요한 데이터, 광고물의 주목도를 높이기 위하여 필요한 데이터 및 광고 효과를 측정하기 위해 필요한 데이터 중 적어도 하나를 관리할 수 있다.
도 5 및 도 6은 본 발명의 실시예에 따른 이동형 로봇 장치의 블록도이다.
도 5에 도시된 바와 같이, 본 발명에 따른 이동형 로봇 장치(1000)는, 센싱부(110), 프로세서(120), 암 장치(170), 및 이동 장치(180)를 포함할 수 있다. 그러나, 도 5에 도시된 구성 요소 모두가 이동형 로봇 장치(1000)의 필수 구성 요소인 것은 아니다. 도 5에 도시된 구성 요소보다 많은 구성 요소에 의해 이동형 로봇 장치(1000)가 구현될 수도 있고, 도 5에 도시된 구성 요소보다 적은 구성 요소에 의해 이동형 로봇 장치(1000)가 구현될 수도 있다.
예를 들어, 도 6에 도시된 바와 같이, 본 발명에 따른 이동형 로봇 장치(1000)는, 센싱부(110), 프로세서(120), 암 장치(170), 및 이동 장치(180) 이외에 출력부(130), 메모리(140), 입력부(150), 및 통신부(160)를 더 포함할 수도 있다.
본 발명에 따른 센싱부(110)는 이동형 로봇 장치(1000)의 주행 중에 이동형 로봇 장치(1000)의 주변 환경을 센싱한 센싱 정보를 획득할 수 있다. 예를 들어, 센싱부(110)는 이동형 로봇 장치(1000)의 주변을 촬영한 이미지 및 주변 환경의 온도 정보 중 적어도 하나를 획득할 수 있다. 또한, 센싱부(110)는 이동형 로봇 장치(1000)가 주행하는 중에, 이동형 로봇 장치(1000)의 위치 정보를 획득할 수 있다.
센싱부(110)는 이동형 로봇 장치(1000)의 주변 환경을 센싱하기 위한 복수의 센서들을 포함할 수 있다. 예를 들어, 센싱부(110)는 이동형 로봇 장치(1000)의 주변의 이미지를 촬영하기 위해, 카메라와 같은 이미지 센서(228)를 포함할 수 있다. 또한, 센싱부(110)는 이동형 로봇 장치(1000)의 주변 환경의 온도 정보 및/또는 습도 정보를 획득하기 위해, 온/습도 센서(232)를 포함할 수 있다.
또한, 센싱부(110)는 이동형 로봇 장치(1000)의 위치 정보를 획득하기 위한 센서들을 포함할 수 있다. 예를 들어, 센싱부(110)는 RADAR 센서(226), LIDAR 센서(227) 및 Odometery 센서(230)와 같은 거리 센서를 포함할 수 있다.
또한, 센싱부(110)는 다수의 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있는 바, 이동형 로봇 장치(1000)의 전방, 후방, 및 측방 각각의 방향의 이미지를 촬영할 수 있다.
센싱부(110)는 이동형 로봇 장치(1000)가 위치해 있는 주변 환경에 관한 정보를 감지하도록 구성되는 복수의 센서들을 포함할 수 있고, 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 예를 들어, 센싱부(110)는 GPS(Global Positioning System)(224), IMU(Inertial Measurement Unit)(225), RADAR 센서(226), LIDAR 센서(227), 이미지 센서(228) 및 Odometery 센서(230)를 포함할 수 있다. 또한, 센싱부(110)는 온/습도 센서(232), 적외선 센서(233), 기압 센서(235), 근접 센서(236), 및 RGB 센서(illuminance sensor)(237) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
또한, 센싱부(110)는 이동형 로봇 장치(1000)의 움직임을 센싱할 수 있는 움직임 센싱부(238)를 포함할 수 있다. 움직임 센싱부(238)는 지자기 센서(Magnetic sensor)(229), 가속도 센서(Acceleration sensor)(231), 및 자이로스코프 센서(234)를 포함할 수 있다.
GPS(224)는 이동형 로봇 장치(1000)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(224)는 지구에 대한 이동형 로봇 장치(1000)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.
IMU(225)는 관성 가속도에 기초하여 이동형 로봇 장치(1000)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.
RADAR 센서(226)는 무선 신호를 사용하여 이동형 로봇 장치(1000)가 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 또한, RADAR 센서(226)는, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.
LIDAR 센서(227)는 레이저를 사용하여 이동형 로봇 장치(1000)가 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 보다 구체적으로, LIDAR 센서(227)는 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 있다. LIDAR 센서(227)는 코히런트(coherent)(예컨대, 헤테로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.
이미지 센서(228)는 이동형 로봇 장치(1000) 외부의 환경을 기록하도록 구성되는 스틸 카메라 또는 비디오카메라가 될 수 있다. 예를 들어, 이미지 센서(228)는 다수의 카메라를 포함할 수 있고, 다수의 카메라는 이동형 로봇 장치(1000) 상의 다수의 위치들에 배치될 수 있다.
Odometery 센서(230)는 이동형 로봇 장치(1000)의 위치를 추정하고, 이동 거리를 측정할 수 있다. 예를 들어, Odometery 센서(230)는 이동형 로봇 장치(1000)의 바퀴의 회전 수를 이용하여 이동형 로봇 장치(1000)의 위치 변화 값을 측정할 수 있다.
입력부(150)는 이동형 로봇 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력부(150)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력부(150)는 마이크를 포함할 수 있는 바, 마이크는, 사용자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.
출력부(130)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력부(130)는 디스플레이(281) 및 음향 출력부(282)를 포함할 수 있다.
디스플레이(281)는 이동형 로봇 장치(1000)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이(281)는, 이동형 로봇 장치(1000)의 주행 중에 이동형 로봇 장치(1000) 주변에 위치한 사람에게 위험한 상황을 알리는 알림 메시지를 디스플레이할 수 있다. 또한, 디스플레이(281)는 알림에 관련된 동작을 실행하기 위한 사용자 인터페이스를 디스플레이할 수 있다. 또한, 디스플레이(281)는 상품 또는 기업의 홍보 및 다양한 정보를 대중에게 알리기 위한 광고물을 디스플레이할 수 있다.
디스플레이(281)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 출력부(130)의 구현 형태에 따라, 출력부(130)는 디스플레이(281)를 2개 이상 포함할 수도 있다.
음향 출력부(282)는 통신부(160)로부터 수신되거나 메모리(140)에 저장된 오디오 데이터를 출력한다. 예를 들어, 음향 출력부(282)는, 이동형 로봇 장치(1000)의 주행 중에 이동형 로봇 장치(1000) 주변에 위치한 사람에게 위험한 상황을 알리는 알림 메시지를 음향으로 출력할 수 있다. 또한, 음향 출력부(282)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
입력부(150) 및 출력부(130)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.
통신부(160)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신부(160)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 프로세서(120)에 의해 제어되는 통신부(160)는 무선 신호를 송수신할 수 있다. 예를 들어, 프로세서(120)는, 통신부(160)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 메모리(140)에 포함된 프로그램을 실행시킬 수 있다.
프로세서(120)는, 통상적으로 이동형 로봇 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(120)는, 메모리(140)에 저장된 프로그램들을 실행함으로써, 센싱부(110), 출력부(130), 입력부(150), 통신부(160), 암 장치(170), 이동 장치(180) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(120)는 메모리(140)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 4에 기재된 이동형 로봇 장치(1000)의 기능을 수행할 수 있다.
구체적으로, 프로세서(120)는 센싱부(110)를 통하여 이동형 로봇 장치(1000)의 주변 환경을 센싱한 센싱 정보를 획득할 수 있다. 예를 들어, 센싱 정보는, 이동형 로봇 장치(1000)의 주변을 촬영한 이미지 및 주변 환경의 온도 정보 중 적어도 하나를 포함할 수 있다. 예를 들어, 센싱 정보는, 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간을 포함할 수 있다.
본 발명에 따른 프로세서(120)는 주행 중에 조우한 보행자 중 광고의 가식별 거리에 진입한 보행자를 각각 독립된 객체로 인식하고, 그 수를 합산하며, 이를 바탕으로 광고 효과를 측정할 수 있다.
또한, 프로세서(120)는 가식별 범위 내에 진입한 보행자의 안면 인식 및 진행 방향과 속도를 추정하여 시선 방향이 광고물을 향하고 있는 시간을 계산하고, 이를 바탕으로 광고 효과를 측정할 수 있다.
또한, 프로세서(120)는 가식별 범위 내에 진입한 보행자와 자신의 거리, 가식별 범위 내에 머무른 시간, 보행자의 시선 방향이 광고물을 향했는지 여부와 그 시간 등을 계산하여 광고에 대한 주목도를 계산할 수 있고, 이에 따라 광고 효과를 차등 제시할 수 있다.
메모리(140)는, 프로세서(120)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 이동형 로봇 장치(1000)로 입력되거나 이동형 로봇 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 예를 들어, 메모리(140)는 이동형 로봇 장치(100)가 주행하는 중에 촬영한 이동형 로봇 장치(1000) 주변의 이미지를 저장할 수 있다.
메모리(140)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 알림 모듈을 포함할 수 있다.
알림 모듈은 디스플레이부(281)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(282)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
암 장치(170)는 이동형 로봇 장치(1000)의 팔 부분으로서, 프로세서(120)에 의해 암 장치(170)의 움직임 속도, 각도, 방향 등이 제어될 수 있다. 또한, 헤드 장치(미도시)는, 이동형 로봇 장치(1000)의 머리 부분으로서, 프로세서(120)에 의해 헤드 장치(미도시)의 움직임 각도, 방향 등이 제어될 수 있다.
주행 장치(180)는 브레이크 유닛(221), 조향 유닛(222), 및 스로틀(223)을 포함할 수 있다.
조향 유닛(222)은 이동형 로봇 장치(1000)의 방향을 조절하도록 구성되는 메커니즘들의 조합이 될 수 있다.
브레이크 유닛(221)은 이동형 로봇 장치(1000)를 감속시키도록 구성되는 메커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크 유닛(221)은 이동형 로봇 장치(1000)의 바퀴/휠의 속도를 줄이기 위해 마찰을 사용할 수 있다.
도 7은 본 발명에 따른 프로세서의 블록도이다.
도 7을 참조하면, 본 발명에 따른 프로세서(120)는 데이터 학습부(710) 및 데이터 인식부(720)를 포함할 수 있다.
데이터 학습부(710)는 보행자를 식별하기 위한 기준을 학습할 수 있다. 데이터 학습부(710)는 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치 및 방향은 물론 가식별 거리 내에 머무른 시간을 측정하기 위하여 어떤 데이터를 이용할지, 데이터를 이용하여 상황을 어떻게 판단할지에 관한 기준을 학습할 수 있다. 데이터 학습부(710)는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 보행자를 식별하기 위한 기준을 학습할 수 있다.
데이터 인식부(720)는 데이터에 기초한 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향 및 가식별 거리 내에 머무른 시간을 판단할 수 있다. 데이터 인식부(720)는 학습된 데이터 인식 모델을 이용하여, 소정의 데이터로부터 보행자의 수, 위치, 방향 및 가식별 거리 내에 머무른 시간을 인식할 수 있다. 데이터 인식부(720)는 학습에 의한 기설정된 기준에 따라 소정의 데이터를 획득하고, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델을 이용함으로써, 소정의 데이터에 기초하여 보행자의 수, 위치, 방향 및 가식별 거리 내에 머무른 시간을 인식할 수 있다. 또한, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델에 의해 출력된 결과 값은, 데이터 인식 모델을 갱신하는 데 이용될 수 있다.
데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나는 인공지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
이 경우, 데이터 학습부(710) 및 데이터 인식부(720)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(710) 및 데이터 인식부(720) 중 하나는 이동형 로봇 장치(1000)에 포함되고, 나머지 하나는 서버(2000)에 포함될 수 있다. 또한, 데이터 학습부(710) 및 데이터 인식부(720)는 유선 또는 무선으로 통하여, 데이터 학습부(710)가 구축한 모델 정보를 데이터 인식부(720)로 제공할 수도 있고, 데이터 인식부(720)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(710)로 제공될 수도 있다.
한편, 데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 8은 본 발명의 실시예에 따른 데이터 학습부의 블록도이다.
도 8을 참조하면, 본 발명에 따른 데이터 학습부(710)는 데이터 획득부(710-1), 전처리부(710-2), 학습 데이터 선택부(710-3), 모델 학습부(710-4) 및 모델 평가부(710-5)를 포함할 수 있다.
데이터 획득부(710-1)는 보행자를 식별하기 위해 필요한 데이터를 획득할 수 있다. 데이터 획득부(710-1)는 보행자를 식별하기 위한 학습을 위하여 필요한 데이터를 획득할 수 있다.
본 발명의 실시예에 따라, 데이터 획득부(710-1)는, 이동형 로봇 장치(1000)의 주행시에는 주변 환경을 센싱한 센싱 정보를 획득할 수 있다. 예를 들어, 데이터 획득부(710-1)는, 이동형 로봇 장치(1000)의 주행시에 실시간으로 주변을 촬영한 이미지를 입력받을 수 있다. 또한, 데이터 획득부(710-1)는 이동형 로봇 장치(1000)의 입력 기기(예: 마이크로폰, 카메라 또는 센서 등)를 통해 데이터를 입력받을 수 있다. 또는, 데이터 획득부(710-1)는 이동형 로봇 장치(1000)와 통신하는 외부 장치를 통해 데이터를 획득할 수 있다.
본 발명의 실시예에 따라, 주변을 촬영한 이미지는 복수일 수 있으며, 복수의 이미지를 포함하는 비디오일 수 있다. 일례로, 데이터 획득부(710-1)는 데이터 학습부(710)를 포함하는 이동형 로봇 장치(1000)의 카메라, 또는 데이터 학습부(710)를 포함하는 이동형 로봇 장치(1000)와 통신 가능한 외부의 카메라(예로, CCTV 등)를 통하여 비디오를 입력받을 수도 있다.
카메라는 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전처리부(710-2)는 보행자 식별을 위한 학습에 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(710-2)는 후술할 모델 학습부(710-4)가 보행자 식별을 위한 학습을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기설정된 포맷으로 가공할 수 있다. 예를 들어, 전처리부(710-2)는 입력된 비디오의 적어도 일부를 구성하는 복수의 이미지(또는 프레임(frame))들 각각에 포함된 공통 영역을 기초로, 복수의 이미지들의 적어도 일부를 중첩하여 하나의 합성 이미지를 생성할 수 있다. 이 경우, 하나의 비디오에서 복수 개의 합성 이미지들이 생성될 수도 있다. 공통 영역은, 복수의 이미지들 각각에서 동일 또는 유사한 공통 오브젝트(예로, 물체, 동식물 또는 사람 등)를 포함한 영역이 될 수 있다. 또는, 공통 영역은, 복수의 이미지들 각각에서 색, 음영, RGB 값 또는 CMYK 값 등이 동일 또는 유사한 영역이 될 수 있다.
학습 데이터 선택부(710-3)는 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(710-4)에 제공될 수 있다. 학습 데이터 선택부(710-3)는 보행자 식별을 위한 기설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(710-3)는 후술할 모델 학습부(710-4)에 의한 학습에 의해 기설정된 기준에 따라 데이터를 선택할 수도 있다.
예를 들어, 이동형 로봇 장치(1000)의 주변에 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간 등에 관한 데이터가 선택될 수 있다.
모델 학습부(710-4)는 학습 데이터에 기초하여 보행자 식별에 관한 기준을 학습할 수 있다. 또한, 모델 학습부(710-4)는 보행자 식별을 위하여 어떤 학습 데이터를 이용해야 하는지에 대한 기준을 학습할 수도 있다.
본 발명의 실시예에 따라, 모델 학습부(710-4)는 센싱 정보에 기초하여, 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간에 관한 기준을 학습할 수 있다.
또한, 모델 학습부(710-4)는 보행자 식별에 이용되는 데이터 인식 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 이 경우, 데이터 인식 모델은 미리 구축된 모델일 수 있다. 예를 들어, 데이터 인식 모델은 기본 학습 데이터(예를 들어, 샘플 이미지 등)를 입력받아 미리 구축된 모델일 수 있다.
데이터 인식 모델은, 인식 모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 데이터 인식 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다.
다양한 실시예에 따르면, 모델 학습부(710-4)는 미리 구축된 데이터 인식 모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 데이터 인식 모델을 학습할 데이터 인식 모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입별로 기분류되어 있을 수 있으며, 데이터 인식 모델은 데이터의 타입별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 지역, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 장르, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기분류되어 있을 수 있다.
또한, 모델 학습부(710-4)는, 예를 들어, 오류 역전파법(error back-propagation) [0139] 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 데이터 인식 모델을 학습시킬 수 있다.
또한, 모델 학습부(710-4)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(710-4)는, 예를 들어, 별다른 지도 없이 보행자 식별을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 보행자 식별을 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(710-4)는, 예를 들어, 학습에 따른 보행자 식별의 결과가 올바른지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다.
또한, 데이터 인식 모델이 학습되면, 모델 학습부(710-4)는 학습된 데이터 인식 모델을 저장할 수 있다. 이 경우, 모델 학습부(710-4)는 학습된 데이터 인식 모델을 데이터 인식부(720)를 포함하는 이동형 로봇 장치(1000)의 메모리에 저장할 수 있다. 또는, 모델 학습부(710-4)는 학습된 데이터 인식 모델을 후술할 데이터 인식부(720)를 포함하는 이동형 로봇 장치(1000)의 메모리에 저장할 수 있다. 또는, 모델 학습부(710-4)는 학습된 데이터 인식 모델을 이동형 로봇 장치(1000)와 유선 또는 무선 네트워크로 연결되는 서버(2000)의 메모리에 저장할 수도 있다.
이 경우, 학습된 데이터 인식 모델이 저장되는 메모리는, 예를 들면, 이동형 로봇 장치(1000)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 애플리케이션 프로그래밍 인터페이스(API) 및/또는 애플리케이션 프로그램(또는 "애플리케이션") 등을 포함할 수 있다.
모델 평가부(710-5)는 데이터 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(710-4)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 데이터 인식 모델을 평가하기 위한 기설정된 데이터일 수 있다.
예를 들어, 모델 평가부(710-5)는 평가 데이터에 대한 학습된 데이터 인식 모델의 인식 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 데이터 인식 모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(710-5)는 학습된 데이터 인식 모델이 적합하지 않은 것으로 평가할 수 있다.
한편, 학습된 데이터 인식 모델이 복수 개가 존재하는 경우, 모델 평가부(710-5)는 각각의 학습된 데이터 인식 모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 데이터 인식 모델로서 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(710-5)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 데이터 인식 모델로서 결정할 수 있다.
한편, 데이터 학습부(710) 내의 데이터 획득부(710-1), 전처리부(710-2), 학습 데이터 선택부(710-3), 모델 학습부(710-4), 및 모델 평가부(710-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 이동형 로봇 장치(1000)에 탑재될 수 있다. 예를 들어, 데이터 획득부(710-1), 전처리부(710-2), 학습 데이터 선택부(710-3), 모델 학습부(710-4), 및 모델 평가부(710-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 이동형 로봇 장치(1000)에 탑재될 수도 있다.
또한, 데이터 획득부(710-1), 전처리부(710-2), 학습 데이터 선택부(710-3), 모델 학습부(710-4), 및 모델 평가부(710-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(710-1), 전처리부(710-2), 학습 데이터 선택부(710-3), 모델 학습부(710-4), 및 모델 평가부(710-5) 중 일부는 이동형 로봇 장치(1000)에 포함되고, 나머지 일부는 서버(2000)에 포함될 수 있다.
또한, 데이터 획득부(710-1), 전처리부(710-2), 학습 데이터 선택부(710-3), 모델 학습부(710-4), 및 모델 평가부(710-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(710-1), 전처리부(710-2), 학습 데이터 선택부(710-3), 모델 학습부(710-4), 및 모델 평가부(710-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 9는 본 발명의 실시예에 따른 데이터 인식부의 블록도이다.
도 9를 참조하면, 본 발명에 따른 데이터 인식부(720)는 데이터 획득부(720-1), 전처리부(720-2), 인식 데이터 선택부(720-3), 인식 결과 제공부(720-4), 및 모델 갱신부(720-5)를 포함할 수 있다.
데이터 획득부(720-1)는 보행자 식별에 필요한 데이터를 획득할 수 있으며, 전처리부(720-2)는 보행자 식별을 위해 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(720-2)는 후술할 인식 결과 제공부(720-4)가 보행자 식별을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기설정된 포맷으로 가공할 수 있다.
인식 데이터 선택부(720-3)는 전처리된 데이터 중에서 보행자 식별에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(720-4)에게 제공될 수 있다. 인식 데이터 선택부(720-3)는 보행자 식별을 위한 기설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(720-3)는 후술할 모델 학습부(710-4)에 의한 학습에 의해 기설정된 기준에 따라 데이터를 선택할 수도 있다.
인식 결과 제공부(720-4)는 선택된 데이터를 데이터 인식 모델에 적용하여 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치 및 방향은 물론 가식별 거리 내에 머무른 시간을 인식할 수 있다. 인식 결과 제공부(720-4)는 데이터의 인식 목적에 따른 인식 결과를 제공할 수 있다. 인식 결과 제공부(720-4)는 인식 데이터 선택부(720-3)에 의해 선택된 데이터를 입력 값으로 이용함으로써, 선택된 데이터를 데이터 인식 모델에 적용할 수 있다. 또한, 인식 결과는 데이터 인식 모델에 의해 결정될 수 있다.
모델 갱신부(720-5)는 인식 결과 제공부(720-4)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 데이터 인식 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(720-5)는 인식 결과 제공부(720-4)에 의해 제공되는 인식 결과를 모델 학습부(710-4)에게 제공함으로써, 모델 학습부(710-4)가 데이터 인식 모델을 갱신하도록 할 수 있다.
한편, 데이터 인식부(720) 내의 데이터 획득부(720-1), 전처리부(720-2), 인식 데이터 선택부(720-3), 인식 결과 제공부(720-4), 및 모델 갱신부(720-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 이동형 로봇 장치(1000)에 탑재될 수 있다. 예를 들어, 데이터 획득부(720-1), 전처리부(720-2), 인식 데이터 선택부(720-3), 인식 결과 제공부(720-4), 및 모델 갱신부(720-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 이동형 로봇 장치(1000)에 탑재될 수도 있다.
또한, 데이터 획득부(720-1), 전처리부(720-2), 인식 데이터 선택부(720-3), 인식 결과 제공부(720-4), 및 모델 갱신부(720-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(720-1), 전처리부(720-2), 인식 데이터 선택부(720-3), 인식 결과 제공부(720-4), 및 모델 갱신부(720-5) 중 일부는 이동형 로봇 장치(1000)에 포함되고, 나머지 일부는 서버(2000)에 포함될 수 있다.
또한, 데이터 획득부(720-1), 전처리부(720-2), 인식 데이터 선택부(720-3), 인식 결과 제공부(720-4), 및 모델 갱신부(720-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(720-1), 전처리부(720-2), 인식 데이터 선택부(720-3), 인식 결과 제공부(720-4), 및 모델 갱신부(720-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
이상에서 본 명세서에 개시된 실시예들을 첨부된 도면들을 참조로 설명하였다. 이와 같이 각 도면에 도시된 실시예들은 한정적으로 해석되면 아니되며, 본 명세서의 내용을 숙지한 당업자에 의해 서로 조합될 수 있고, 조합될 경우 일부 구성 요소들은 생략될 수도 있는 것으로 해석될 수 있다.
여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 명세서에 개시된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 명세서에 개시된 실시예에 불과할 뿐이고, 본 명세서에 개시된 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
110: 센싱부 120: 프로세서
170: 암 장치 180: 이동 장치

Claims (10)

  1. 광고물을 표시하는 디스플레이를 포함하는 이동형 로봇 장치가 광고 효과를 측정하는 방법에 있어서,
    상기 이동형 로봇 장치의 주행 중에 딥러닝 기반 객체인식 알고리즘을 통해 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간 중 적어도 하나를 포함하는 센싱 정보를 획득하는 단계; 및
    획득된 센싱 정보에 기초하여, 광고 효과를 측정하는 단계;
    를 포함하는 광고 효과를 측정하는 방법.
  2. 제1항에 있어서, 상기 광고 효과를 측정하는 단계는,
    주행 중에 조우한 보행자 중 광고의 가식별 거리에 진입한 보행자를 각각 독립된 객체로 인식하여 보행자의 수를 합산하는 단계; 및
    합산된 보행자의 수를 바탕으로 광고 효과를 측정하는 단계;
    를 포함하는 것을 특징으로 하는 광고 효과를 측정하는 방법.
  3. 제1항에 있어서, 상기 광고 효과를 측정하는 단계는,
    식별 범위 내에 진입한 보행자의 안면 인식 및 진행 방향과 속도를 추정하여 시선 방향이 광고물을 향하고 있는 시간을 계산하는 단계; 및
    계산된 보행자의 시선 방향이 광고물을 향하고 있는 시간을 바탕으로 광고 효과를 측정하는 단계;
    를 포함하는 것을 특징으로 하는 광고 효과를 측정하는 방법.
  4. 제3항에 있어서, 상기 시간을 바탕으로 광고 효과를 측정하는 단계는,
    상기 광고물에 포함된 객체의 위치 정보와 방향 정보를 추출하는 단계;
    상기 광고물에 포함된 객체가 상기 보행자의 시선 방향에 진입하면, 상기 광고물에 포함된 객체의 진입 시점을 판단하는 단계;
    상기 광고물에 포함된 객체가 상기 보행자의 시선 방향으로부터 이탈하면, 상기 광고물에 포함된 객체의 이탈 시점을 판단하는 단계; 및
    상기 추출된 객체의 위치 정보와 방향 정보를 이용하여 상기 진입 시점으로부터 상기 이탈 시점까지의 상기 광고물의 노출 시간을 산출하는 단계;
    를 포함하는 것을 특징으로 하는 광고 효과를 측정하는 방법.
  5. 제1항에 있어서, 상기 광고 효과를 측정하는 단계는,
    가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간을 계산하는 단계; 및
    계산된 가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간에 기초하여, 광고 효과를 측정하는 단계;
    를 포함하는 것을 특징으로 하는 광고 효과를 측정하는 방법.
  6. 제1항에 있어서,
    딥러닝 기반 객체인식 알고리즘을 통해 주행 중 조우한 보행자의 성별을 추정하는 단계; 및
    추정된 보행자의 성별에 따라 출력되는 광고물을 변경하는 단계;
    를 더 포함하는 것을 특징으로 하는 광고 효과를 측정하는 방법.
  7. 광고물을 표시하는 디스플레이;
    적어도 하나의 인스트럭션이 저장되는 메모리;
    센싱부; 및
    상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 센싱부를 통하여 주행 중에 딥러닝 기반 객체인식 알고리즘을 통해 광고물의 실제 식별이 가능한 거리와 방향에 위치한 보행자의 수, 위치, 방향, 및 가식별 거리 내에 머무른 시간 중 적어도 하나를 포함하는 센싱 정보를 획득하고, 획득된 센싱 정보에 기초하여, 광고 효과를 측정하는 동작을 제어하는 프로세서;
    를 포함하는 이동형 로봇 장치.
  8. 제7항에 있어서,
    상기 프로세서는,
    주행 중에 조우한 보행자 중 광고의 가식별 거리에 진입한 보행자를 각각 독립된 객체로 인식하여 보행자의 수를 합산하고, 합산된 보행자의 수를 바탕으로 광고 효과를 측정하는 것을 특징으로 하는 이동형 로봇 장치.
  9. 제7항에 있어서,
    상기 프로세서는,
    식별 범위 내에 진입한 보행자의 안면 인식 및 진행 방향과 속도를 추정하여 시선 방향이 광고물을 향하고 있는 시간을 계산하고, 계산된 보행자의 시선 방향이 광고물을 향하고 있는 시간을 바탕으로 광고 효과를 측정하는 것을 특징으로 하는 이동형 로봇 장치.
  10. 제7항에 있어서,
    상기 프로세서는,
    가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간을 계산하고, 계산된 가식별 범위 내에 진입한 보행자와 이동형 로봇 장치의 거리, 가식별 범위 내에 머무른 시간, 및 보행자의 시선 방향이 광고물을 향하고 있는 시간에 기초하여, 광고 효과를 측정하는 것을 특징으로 하는 이동형 로봇 장치.
KR1020210148048A 2021-11-01 2021-11-01 광고 효과를 측정하는 이동형 로봇 장치 및 방법 KR20230063132A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210148048A KR20230063132A (ko) 2021-11-01 2021-11-01 광고 효과를 측정하는 이동형 로봇 장치 및 방법
PCT/KR2022/016399 WO2023075384A1 (ko) 2021-11-01 2022-10-26 광고 효과를 측정하는 이동형 로봇 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210148048A KR20230063132A (ko) 2021-11-01 2021-11-01 광고 효과를 측정하는 이동형 로봇 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20230063132A true KR20230063132A (ko) 2023-05-09

Family

ID=86159759

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210148048A KR20230063132A (ko) 2021-11-01 2021-11-01 광고 효과를 측정하는 이동형 로봇 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20230063132A (ko)
WO (1) WO2023075384A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110009156U (ko) 2010-03-19 2011-09-27 이한승 광고 효과 측정이 가능한 광고장치의 배치구조
KR101557152B1 (ko) 2014-04-02 2015-10-05 서울시립대학교 산학협력단 광고노출 측정 장치, 방법 및 기록매체

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100888640B1 (ko) * 2007-06-20 2009-03-11 허길수 횡단 보도의 입구에 광고겸용 지능형 교통순경 로봇이설치된 교통안전 대기장치 및 이의 제어방법
KR101012288B1 (ko) * 2008-07-11 2011-02-08 주식회사 로보테크 이동식 안내로봇 및 그 시스템
US20150202770A1 (en) * 2014-01-17 2015-07-23 Anthony Patron Sidewalk messaging of an autonomous robot
US20210362335A1 (en) * 2019-07-12 2021-11-25 Lg Electronics Inc. Robot and method for manage item using same
KR102288870B1 (ko) * 2021-02-19 2021-08-12 주식회사 튠미디어 Ai 로봇을 이용하는 광고 시스템 및 ai 로봇을 제어하는 서버

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110009156U (ko) 2010-03-19 2011-09-27 이한승 광고 효과 측정이 가능한 광고장치의 배치구조
KR101557152B1 (ko) 2014-04-02 2015-10-05 서울시립대학교 산학협력단 광고노출 측정 장치, 방법 및 기록매체

Also Published As

Publication number Publication date
WO2023075384A1 (ko) 2023-05-04

Similar Documents

Publication Publication Date Title
Islam et al. Person-following by autonomous robots: A categorical overview
Ghasemi et al. Deep learning-based object detection in augmented reality: A systematic review
US10807230B2 (en) Bistatic object detection apparatus and methods
US9796093B2 (en) Customer service robot and related systems and methods
Chuang et al. Deep trail-following robotic guide dog in pedestrian environments for people who are blind and visually impaired-learning from virtual and real worlds
Hu et al. An overview of assistive devices for blind and visually impaired people
Gharani et al. Context-aware obstacle detection for navigation by visually impaired
KR102480416B1 (ko) 차선 정보를 추정하는 방법 및 전자 장치
US11592825B2 (en) Electronic device and operation method therefor
US11931906B2 (en) Mobile robot device and method for providing service to user
KR20190100085A (ko) 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법
US11540690B2 (en) Artificial intelligence robot cleaner
KR20200131664A (ko) 차량의 주행을 보조하는 전자 장치 및 방법
Iakovidis et al. Digital enhancement of cultural experience and accessibility for the visually impaired
Busaeed et al. LidSonic V2. 0: a LiDAR and deep-learning-based green assistive edge device to enhance mobility for the visually impaired
KR20200101186A (ko) 전자 장치 및 그의 제어 방법
Kumer et al. Controlling the autonomous vehicle using computer vision and cloud server
KR102464906B1 (ko) 패션 상품을 추천하는 전자 장치, 서버 및 그 동작 방법
KR20230063132A (ko) 광고 효과를 측정하는 이동형 로봇 장치 및 방법
Hu et al. Computer vision for sight: Computer vision techniques to assist visually impaired people to navigate in an indoor environment
Koyama et al. IR tag detection and tracking with omnidirectional camera using track-before-detect particle filter
CN114663754A (zh) 检测方法、装置、多足机器人及存储介质
Gunethilake Blind navigation using deep learning-based obstacle detection
KR20230063133A (ko) 이동형 로봇 장치의 광고 관리 방법 및 시스템
Grewe et al. Drone based user and heading detection using deep learning and stereo vision