KR20170083332A - 센서 관리 방법 및 장치 - Google Patents

센서 관리 방법 및 장치 Download PDF

Info

Publication number
KR20170083332A
KR20170083332A KR1020160002668A KR20160002668A KR20170083332A KR 20170083332 A KR20170083332 A KR 20170083332A KR 1020160002668 A KR1020160002668 A KR 1020160002668A KR 20160002668 A KR20160002668 A KR 20160002668A KR 20170083332 A KR20170083332 A KR 20170083332A
Authority
KR
South Korea
Prior art keywords
sensor
information
sensing area
determining
influence
Prior art date
Application number
KR1020160002668A
Other languages
English (en)
Other versions
KR102371409B1 (ko
Inventor
전해인
오승환
이대은
최성도
김양욱
나인학
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160002668A priority Critical patent/KR102371409B1/ko
Priority to US16/068,857 priority patent/US11005941B2/en
Priority to PCT/KR2017/000288 priority patent/WO2017119800A1/ko
Publication of KR20170083332A publication Critical patent/KR20170083332A/ko
Application granted granted Critical
Publication of KR102371409B1 publication Critical patent/KR102371409B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0866Checking the configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/08Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/12Checking intermittently signalling or alarm systems
    • G08B29/14Checking intermittently signalling or alarm systems checking the detection circuits
    • G08B29/145Checking intermittently signalling or alarm systems checking the detection circuits of fire detection circuits
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/20Calibration, including self-calibrating arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/30Security of mobile devices; Security of mobile applications
    • H04W12/35Protecting application or service provisioning, e.g. securing SIM application provisioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/50Service provisioning or reconfiguring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/65Environment-dependent, e.g. using captured environmental data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/69Identity-dependent
    • H04W12/77Graphical identity

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Alarm Systems (AREA)
  • Human Computer Interaction (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

본 개시는 4G 시스템 이후 보다 높은 데이터 전송률을 지원하기 위한 5G 통신 시스템을 IoT 기술과 융합하는 통신 기법 및 그 시스템에 관한 것이다. 본 개시는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스 (예를 들어, 스마트 홈, 스마트 빌딩, 스마트 시티, 스마트 카 혹은 커넥티드 카, 헬스 케어, 디지털 교육, 소매업, 보안 및 안전 관련 서비스 등)에 적용될 수 있다.
본 개시의 실시예가 제공하는 센서를 관리하는 방법은, 센서가 설치된 소정 공간의 구성 이미지를 생성하는 과정과, 상기 구성 이미지에 기초하여 상기 센서의 센서 식별자를 획득하는 과정과, 상기 센서 식별자에 대응하는 센서의 센서 정보를 획득하는 과정과, 상기 구성 이미지와 상기 센서 정보에 기초하여, 상기 센서의 감지 영역을 결정하는 과정과, 상기 결정된 감지 영역을 상기 구성 이미지에 표시하는 과정을 포함한다.

Description

센서 관리 방법 및 장치{METHOD AND APPARATUS FOR MANAGING A SENSOR}
본 개시는 센서를 관리하기 위한 방법 및 장치에 관한 것이다.
인터넷은 인간이 정보를 생성하고 소비하는 인간 중심의 연결망에서, 사물 등 분산된 구성 요소들 간에 정보를 주고받아 처리하는 사물인터넷 (Internet of Things, IoT) 망으로 진화하고 있다. IoE (Internet of Everything) 기술은 클라우드 서버 등과의 연결을 통한 빅 데이터 (Big data) 처리 기술 등이 IoT 기술에 결합된 하나의 예가 될 수 있다.
IoT를 구현하기 위해서, 센싱 기술, 유무선 통신 및 네트워크 인프라, 서비스 인터페이스 기술, 및 보안 기술 등과 같은 기술 요소들이 요구되어, 최근에는 사물 간의 연결을 위한 센서 네트워크 (sensor network), 사물 통신 (Machine to Machine, M2M), MTC (Machine Type Communication) 등의 기술이 연구되고 있다.
IoT 환경에서는 연결된 사물들에서 생성된 데이터를 수집, 분석하여 인간의 삶에 새로운 가치를 창출하는 지능형 IT (Internet Technology) 서비스가 제공될 수 있다. IoT는 기존의 IT 기술과 다양한 산업 간의 융합 및 복합을 통하여 스마트 홈, 스마트 빌딩, 스마트 시티, 스마트 카 혹은 커넥티드 카, 스마트 그리드, 헬스 케어, 스마트 가전, 첨단의료서비스 등의 분야에 응용될 수 있다.
스마트 빌딩은 건축, 통신, 사무 자동화, 빌딩 자동화 등의 시스템을 유기적으로 통합하여 첨단 서비스 기능을 제공함으로써 경제성, 효율성, 쾌적성, 기능성, 신뢰성, 안전성을 추구한 빌딩. 건물의 냉·난방, 조명, 전력 시스템의 자동화와 자동 화재 감지 장치, 보안 경비, 정보통신망의 기능과 사무 능률 및 환경을 개선하기 위한 사무 자동화를 홈 네트워크로 통합한 고기능 첨단 건물을 말한다. 이러한 스마트 빌딩을 구현하기 위하여 빌딩 내에 여러 가지 환경의 변화를 자동으로 감지하기 위한 환경 관리 센서, 보안 센서 등과 같이 다양한 센서들이 설치된다. 환경 관리 센서의 예로는, 온도 센서, 습도 센서, 조도 센서, 연기 센서 등이 있을 수 있다. 보안 센서의 예로는 사람의 존재를 감지하는 인체 감지 센서 등이 있다.
한편, 센서들이 건물 내의 임의의 공간에 설치될 때, 센서들이 감지하지 못하는 영역이 없도록 설치되어야 할 것이다. 이를 위하여 해당 공간의 구조 및 공간에 설치된 설비 또는 사물들을 고려하여 센서들이 설치될 위치가 결정된다. 예를 들어, 넓은 사무실에 화재 감지를 위한 복수 개의 연기 센서를 설치하는 경우를 생각해 보면, 회의실 전체에서 연기의 발생을 감지하기 위해서 사무실의 자체 구조와 사무실에 설치된 설비들, 예를 들면, 파티션, 책상, 컴퓨터, 온풍기, 에어컨 등을 고려하여 연기 센서들이 설치될 위치를 결정해야 할 것이다. 이렇게 해당 공간의 구성을 고려하여 센서가 설치된 이후, 해당 공간에 추가 설비들이 설치된다거나, 기존에 설치된 설비들의 위치가 변경된다면, 현재 설치된 연기 센서들의 감지 영역이 변경될 것이다. 그에 따라 연기 센서들을 처음 설치할 때에는 연기 센서들이 연기 발생을 감지하지 못하는 음영 지역이 없었지만, 추가 또는 변경된 설비들에 의하여 현재 설치된 연기 센서들이 연기의 발생을 감지하지 못하는 음영 지역이 생길 수 있다. 만일 상기 음영 지역에서 화재가 발생할 경우, 화재의 발생을 즉시 감지하지 못하고, 음영 지역이 아닌 감지 영역으로 연기가 이동해야만 연기가 감지될 것이므로 화재를 빠른 시간 내에 감지하지 못할 수 있다.
따라서 센서가 설치된 해당 공간에서 공간 구조 자체의 변경 또는 설비들의 변경 또는 추가와 같이, 해당 공간의 구성이 변경될 경우 변경된 공간의 구성을 반영하여 센서의 위치를 변경하거나 또는 추가로 센서를 설치해야 할 필요가 있다.
본 개시는 단말이 센서의 감지 영역을 결정하기 위한 방법 및 장치를 제공한다.
본 개시는 단말이 센서의 감지 영역을 결정하기 위하여, 단말에서 센서를 식별하기 위한 방법 및 장치를 제공한다.
본 개시는 단말이 센서의 감지 범위를 포함하는 센서 정보를 획득하기 위한 방법 및 장치를 제공한다.
본 개시는 단말이 센서의 감지 영역에 영향을 미치는 객체에 대한 정보를 획득하기 위한 방법 및 장치를 제공한다.
본 개시는 단말이 센서를 추가할 경우 최적의 위치를 결정하기 위한 방법 및 장치를 제공한다.
본 개시의 실시예에 의한 센서를 관리하는 방법은, 센서가 설치된 소정 공간의 구성 이미지를 생성하는 과정과, 상기 구성 이미지에 기초하여 상기 센서의 센서 식별자를 획득하는 과정과, 상기 센서 식별자에 대응하는 센서의 센서 정보를 획득하는 과정과, 상기 구성 이미지와 상기 센서 정보에 기초하여, 상기 센서의 감지 영역을 결정하는 과정과, 상기 결정된 감지 영역을 상기 구성 이미지에 표시하는 과정을 포함한다.
본 개시의 실시예에 의한 센서를 관리하는 장치는, 센서가 설치된 소정 공간의 구성 이미지를 생성하고, 상기 구성 이미지에 기초하여 상기 센서의 센서 식별자를 획득하고, 상기 센서 식별자에 대응하는 센서의 센서 정보를 획득하고, 상기 구성 이미지와 상기 센서 정보에 기초하여, 상기 센서의 감지 영역을 결정하는 제어부와, 상기 결정된 감지 영역을 상기 구성 이미지에 표시하는 출력부를 포함한다.
도 1은 본 개시의 실시예에 의한 센서의 감지 영역을 결정하는 방식을 설명하는 도면,
도 2a 내지 도 2g는 본 개시의 실시예에 의하여 센서의 감지 영역을 표시하기 위한 동작의 일 예를 설명하는 도면,
도 3은 센서별 매핑 테이블의 일 예를 설명하는 도면,
도 4는 본 개시의 실시예에 의한 센서 정보와 센서 영향 객체 정보의 일 예를 설명하는 도면,
도 5는 본 개시의 실시예에 의한 가상 센서 설치 모드의 동작을 설명하는 도면,
도 6은 본 개시의 실시예에 의한 가상 센서 설치 모드의 동작에 따라 가상 센서가 설치될 위치를 결정하는 일 예를 설명하는 도면,
도 7은 본 개시의 다른 실시예에 따라 센서와 관련된 정보를 센서로부터 수신하는 실시예를 설명하는 도면,
도 8은 본 개시의 다른 실시예에 따라 센서와 관련된 정보를 센서로부터 수신하는 실시예를 설명하는 도면,
도 9는 본 개시의 다른 실시예에 따라 단말이 자신의 위치 정보를 서버에게 송신하여 서버로부터 센서와 관련된 정보를 센서로부터 수신하는 실시예를 설명하는 도면,
도 10은 본 개시의 실시예에 의한 단말 동작을 설명하는 도면,
도 11은 본 개시의 실시예에 의한 단말 장치의 구성을 설명하는 도면,
도 12는 본 개시의 실시예를 IoT 디바이스인 전구에 활용하는 예를 설명하는 도면.
하기에서 본 개시를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 이하 첨부된 도면을 참조하여 상기한 본 개시의 실시예를 구체적으로 설명하기로 한다.
이하에서 설명되는 본 개시의 실시예들은 설명의 편의를 위하여 분리된 것이지만, 상호 충돌되지 않는 범위 내에서 적어도 둘 이상의 실시예는 결합되어 수행될 수 있다.
이하에서 후술되는 용어들은 본 개시의 실시예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 개시의 실시예는 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는바, 특정 실시 예들을 도면들에 예시하여 상세하게 설명한다. 그러나 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의하여 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 제안하는 장치 및 방법은 롱 텀 에볼루션(Long-Term Evolution: LTE) 이동 통신 시스템과, 롱 텀 에볼루션-어드밴스드(Long-Term Evolution-Advanced: LTE-A) 이동 통신 시스템과, 고속 하향 링크 패킷 접속(high speed downlink packet access: HSDPA) 이동 통신 시스템과, 고속 상향 링크 패킷 접속(high speed uplink packet access: HSUPA) 이동 통신 시스템과, 3세대 파트너쉽 프로젝트 2(3rd generation partnership project 2: 3GPP2)의 고속 레이트 패킷 데이터(high rate packet data: HRPD) 이동 통신 시스템과, 3GPP2의 광대역 부호 분할 다중 접속(Wideband Code Division Multiple Access: WCDMA) 이동 통신 시스템과, 3GPP2의 부호 분할 다중 접속(Code Division Multiple Access: CDMA) 이동 통신 시스템과, 국제 전기 전자 기술자 협회(Institute of Electrical and Electronics Engineers: IEEE) 802.16m 통신 시스템과, 진화된 패킷 시스템(Evolved Packet System: EPS)과, 모바일 인터넷 프로토콜(Mobile Internet Protocol: Mobile IP) 시스템 등과 같은 다양한 통신 시스템들에 적용 가능하다.
본 개시의 실시예들의 상세한 설명에 앞서 본 개시의 주요 개념에 대하여 간략히 설명한다.
본 개시의 기본 개념은, 실내 공간의 환경을 자동 제어하기 위하여 센서가 설치된 공간의 이미지로부터 센서를 식별하고, 식별된 센서의 감지 영역을 결정하고 이를 상기 공간의 이미지에 표시한다. 만일 센서의 감지 영역에 기초하여 추가 센서가 필요하다고 판단될 경우, 추가로 설치될 센서의 최적의 위치를 주변의 사물의 영향을 고려하여 결정한다.
본 명세서에서 사용되는 주요 용어를 간략히 설명한다.
“단말”은 컴퓨터, 스마트폰, 태블릿 컴퓨터 등과 같이 키보드, 터치 스크린, 마우스 등과 같은 사용자 입력 인터페이스 및 디스플레이 등과 같은 사용자 출력 인터페이스를 포함하여 유선 통신 및/또는 무선 통신을 수행할 수 있는 장치를 포함한다. 상기 무선 통신은 셀룰러 이동 통신, Wi-Fi, D2D(device to device) 통신, 블루투스(bluetooth), NFC(Near field communication), 등을 포함하는 것으로 무선 통신의 형태는 제한되지 않는다.
“센서”란 열, 빛, 온도, 압력, 소리, 습도, 조도, 인체의 존재 여부 등의 물리적인 양이나 그 변화를 감지하거나 구분 및 계측하여 일정한 신호로 알려주는 부품이나 기구, 또는 계측기를 말한다.
“센서 정보”란 해당 센서의 센서 식별자(ID), 센서의 설치 위치, 감지 거리, 감지 각도, 센서 타입과 센서에서 떨어진 거리에 따라 감지 영역에 미치는 영향도를 지시하는 거리별 영향도 함수 등과 같이 해당 센서에 대한 상세 정보를 포함한다.
“객체”란 임의의 공간에 설치된 설비, 또는 기타 사물을 의미한다. 예를 들어, 사무실 공간 내의 파티션, 책상, 컴퓨터, 온풍기, 에어컨, 프린터, 정수기 등과 같은 형태를 가지는 사물이다.
“센서 영향 객체”란 해당 센서의 감도에 영향을 미치는 객체이다.
“센서 영향 객체 정보”란 센서 영향 객체 리스트 정보와, 센서 영향 객체가 센서의 감지 영역에 영향을 미치는 정도를 나타내는 영향도 정보를 포함한다.
“공간(의) 구성”이란 임의의 공간에서 벽체, 기둥 등에 자체 건물의 구조와, 해당 공간에 설치된 각종 설비, 예를 들어, 파티션, 책상, 컴퓨터, 사무 기기, 냉방기, 난방기 등의 설비 구조에 의한 공간의 구성을 의미한다. 그에 따라 “공간(의) 구성 이미지”란 자체 건물의 구조와 설비 구조를 포함한 공간의 구성에 대한 이미지를 의미한다.
한편, 이하의 본 개시의 실시예들의 설명은 임의의 센서가 건물의 내부의 임의의 공간에 설치된 경우를 가정하여 설명된다. 다만, 이는 설명의 편의를 위한 것일 뿐, 센서가 반드시 건물 내부에만 설치되어야 하는 것은 아니므로, 본 개시는 건물 외부의 임의의 공간에서도 적용될 수 있다.
이하에서 본 개시의 실시예에 대하여 상세히 설명한다.
도 1은 본 개시의 실시예에 의한 센서의 감지 영역을 결정하는 방식을 설명하는 도면이다. 도 1에서 필요한 경우 해당 단계의 구체적인 도 2a 내지 도 2f에서 예시될 것이다. 도 2a 내지 도 2f는 연결된 하나의 도면이지만, 지면의 한계상 분리하여 도시하였다. 도 2a 내지 도 2f는 본 개시의 실시예에 의하여 센서의 감지 영역을 표시하기 위한 동작의 일 예를 설명하는 도면이다.
111단계에서 단말(101)은 센서가 설치된 공간의 이미지를 획득한다. 상기 공간의 이미지는 단말(101)의 카메라 장치 등을 이용하여 촬영한 2차원 또는 깊이 정보가 포함된 3차원 이미지 또는 열 이미지가 될 수 있다. 참고로, 3차원 이미지는 RGB(red-green-blue)카메라, 심도카메라(TOF Depth camera), 움직임 감지 카메라(motion tracking camera) 등과 같은 카메라 장치와, 자이로스코프 및 컴파스 센서와 같은 위치 가속도 센서를 이용하여 공간을 스캔하여 생성될 수 있다. 또한, 상기 공간의 이미지는 단말(101)이 공간 내부를 이동하면서 촬영한 동영상이 되는 것이 일반적이다. 다만, 단말(101)이 정지 상태에서 회전하면서 촬영한 동영상 또는 적어도 하나의 정지 영상이 될 수 도 있다.
113단계에서는 공간 이미지를 이용하여 공간 구성을 분석하고, 이 분석에 기초하여 공간의 구성 이미지를 생성한다.
상기 공간의 구성 이미지는 단말의 위치 정보와 상기 공간 이미지 중 적어도 하나에 기초하여 생성될 수 있다. 참고로, 단말(101)은 예를 들어, 비콘(beacon), UWB(ULTRA WIDE BAND), WIFI 풋 프린팅(footpriting) 등과 같은 공간 측위 기술을 이용하거나, 복합 공간 측위 방식 등을 이용하여 자신의 위치를 결정하거나, 상기 111단계에서 공간의 이미지를 획득하면서 서버(103)로부터 자신의 위치 정보를 수신하면서 영상을 촬영한 시점의 자신의 위치를 알 수 있다. 일 예로, 단말(101)이 상기한 방식으로 자신의 위치를 결정하고, 동영상으로 촬영된 공간 이미지를 분석하면, 해당 공간의 구성(건물 구조+객체의 위치 및 형태)을 알 수 있으므로, 단말(101)은 공간의 구성 이미지를 생성할 수 있다. 즉, 단말(101)은 해당 공간을 촬영한 단말의 위치와 해당 위치의 공간 이미지를 가지고 3D 모델링 등을 통하여 공간의 구성을 분석할 수 있다
다른 실시예로, 상기 공간의 구성 이미지는, 상기 공간의 이미지를 분석하여 해당 공간에 설치된 객체들을, 예를 들어, 서버(103)로부터 획득하거나, 단말(101)에 미리 저장되어 있는 CAD와 같은 건물의 구조를 나타내는 2차원 또는 3차원의 도면에 표시하는 방식으로 생성될 수도 있다. 도 2a의 213단계에 공간의 구성 이미지의 일 예가 도시되어 있다. 도 2a의 구성 이미지는 2차원 이미지의 평면도이며, 공간의 내벽(213-1)과 공간에 있는 객체들(A, B, C, D)이 도시되어 있다. 다만, 상기 공간의 구성 이미지는 3차원으로 표시될 수 있으며, 또한, 단말(101)이 공간 이미지를 3차원으로 촬영하였을 경우 단말(101)이 촬영한 3차원의 공간 이미지를 공간의 구성 이미지로 그대로 사용할 수 있다.
115단계에서 공간의 구성 이미지를 그리드화한다. 도 2b의 215단계에서 공간의 구성 이미지를 그리드화한 일 예가 도시되었다. 다만, 115단계는 필수적인 과정은 아니며 선택적 과정이다.
117단계에서 단말(101)은 공간 이미지와, 상기 단말(101)이 저장하고 있는 센서별 매핑 테이블로부터, 공간에 설치된 센서들의 센서 ID를 획득할 수 있다. 상기 센서별 매핑 테이블은 센서의 전체 이미지 또는 센서의 특징 이미지와 같은 센서 이미지와 해당 센서의 ID의 대응 관계에 대한 정보를 포함하고 있으며, 단말(101)은 상기 센서별 매핑 테이블에 포함된 센서의 이미지들과 동일 또는 유사한 센서 이미지를 상기 공간 이미지에서 검출하여, 상기 공간에 설치된 센서들을 식별하고, 식별된 센서의 센서 ID를 획득할 수 있다. 단말(101)이 센서 ID를 획득하는 구체적인 예를 도 3을 참조하여 설명한다.
도 3은 센서별 매핑 테이블의 일 예를 설명하는 도면이다.
도 3을 참조하면, 단말(101)은 공간 이미지를 스캔하고, 도 3의 테이블에 포함된 센서들(301, 303)의 이미지들에 해당하는 센서가 상기 공간 이미지에 포함되어 있는지를 확인한다. 도 3의 테이블에 저장된 센서들(301, 303) 중 적어도 하나가 상기 공간 이미지에 포함되어 있다면, 단말(101)은 도 3의 테이블로부터 해당 센서의 센서 ID를 알 수 있다. 도 2c의 217단계에는 단말(101)이 센서 이미지로부터 센서 ID를 획득한 이후, 공간의 구성 이미지에 센서 A를 표시한 예가 도시되었다.
119단계에서 단말(101)은 획득한 센서 ID를 서버(103)로 송신한다. 상기 서버(103)는 건물을 관리하는 건물 관리 서버가 될 수 있다. 이는 해당 센서의 센서 정보를 요청하기 위한 것이다. 121단계에서 서버(103)는 상기 센서 ID에 해당하는 센서에 대한 “센서 정보”를 단말(101)로 송신한다.
다른 실시예에서, 서버(103)는 해당 센서의 감지 영역에 영향을 미치는 객체들, 즉, 센서 영향 객체에 대한 정보인 “센서 영향 객체 정보”를 상기 단말(101)에게 함께 송신할 수 있다. 참고로, 상기 센서에 영향을 미치는 객체란 해당 센서의 감지 영역에 영향을 미치는 사물을 말한다.
예를 들면, 온도 센서 주변에 난로가 있는 경우에 온도 센서의 감지 영역은 난로의 영향을 받을 것이다. 구체적으로, 온도 센서는 해당 온도 센서의 감지 영역에서의 평균 온도를 측정하는 것이 바람직하다. 그런데 온도 센서에 인접한 지점에 난로가 있을 경우, 온도 센서는 난로의 온도를 측정하게 되므로, 온도 센서는 온도 센서의 감지 영역에서의 평균 온도를 표시할 수 없다. 따라서 난로 근처의 영역은 온도 센서가 사용자가 의도하는 평균 온도를 측정하지 못하기 때문에 온도 센서의 감지 영역에서 제외시킨다. 다른 예로, 조도 센서의 경우, 조도 센서와 조도 센서가 감지하고자 하는 위치 사이의 직선 경로 사이에 사물이 존재할 경우, 조도 센서는 상기 사물의 뒷부분의 조도를 측정할 수 없기 때문에 상기 사물의 뒷부분은 조도 센서의 감지 영역에서 제외된다.
한편, 상기 “센서 영향 객체 정보”는 센서에 영향을 미치는 객체들의 센서 영향 객체의 리스트 정보를 포함한다. 또한, 해당 객체가 얼마나 해당 센서에 영향을 미치는 정도인 센서 영향 객체의 영향도 정보를 포함할 수 있다. 참고로, 센서 영향 객체의 영향도의 값이 클수록 센서가 해당 사물로부터 영향을 많이 받는다.
도 4는 본 개시의 실시예에 의한 센서 정보와 센서 영향 객체 정보의 일 예를 설명하는 도면이다.
(a)는 센서 정보의 일 예이다.
(a)의 표는 임의의 건물에서 18층 내부에 설치된 센서들에 대한 센서 정보를 포함하고 있다. 예를 들어, 센서 1의 위치는 해당 건물의 18층 A존에 있고, 센서 1이 감지할 수 있는 거리의 범위(range)는 12m이고, 센서 1의 감지 각도에는 제한이 없으며, 센서 1은 온도 센서이며, 센서 1의 “거리별 영향도 함수(f(x))”는 “α/x”이다. α는 영향도 상수로, 예를 들어, 시뮬레이션을 통하여 결정된 값일 수 있으며, x는 센서로부터의 거리를 의미한다. 상기 거리별 영향도 함수는 센서 영향 객체와 센서와의 거리가 멀어질수록 센서 영향 객체가 센서에 미치는 영향이 감소하기 때문에, 센서 영향 객체와 센서와의 거리에 따른 센서 영향 객체의 영향도를 나타내기 위한 함수이다. 한편, 상기 센서 1에 대한 예와 마찬가지로, 센서 정보 테이블에 의하여 센서 2 및 센서 3 등에 대한 상세 정보를 알 수 있다.
(b)는 센서 영향 객체 정보의 일 예이다.
(b)의 표는 상기 임의의 건물에서 18층 내부에 존재하는 센서 영향 객체들의 리스트와, 센서별 영향도 정보인 감지 영향도 계수(Y)를 포함한다. (b)의 표를 참조하면, 18층 내부에 존재하는 센서 영향 객체들은 온풍기, TV, 선풍기, 가스레인지, 냉장고, 컴퓨터이다. 또한, 온풍기의 온도 센서에 대한 영향도는 0.8이고, 습도 센서에 대한 영향도는 0.9이며, 조도 센서에 대한 영향도는 0이고, 이산화탄소 센서에 대한 영향도는 0.7이고, 가스/화재 센서에 대한 영향도는 0.8이고, 사람이 존재하는지 여부를 감지하기 위한 인감지 센서에 대한 영향도는 0임을 알 수 있다. 마찬가지로 TV, 선풍기, 가스레인지, 냉장고, 컴퓨터의 센서들에 대한 영향도 정보를 알 수 있다. 한편, 상기 센서 영향 객체 정보에는 객체들의 이미지도 포함될 수 있으며, 단말(101)은 객체들의 이미지를 이용하여 자신이 촬영한 공간 이미지에서 객체들을 식별할 수 있다.
상기 (a)의 센서 정보에 포함된 거리별 영향도 함수(f(x))와, 상기 (b)에의 감지 영향도 계수(Y)는 단말이 센서 영향 객체를 식별한 이후, 센서의 최종 감지 영역을 결정하기 위하여 초기 감지 영역을 보정하거나, 또는 센서를 추가로 설치하기 위한 위치를 결정할 때 이용할 수 있다. 구체적인 활용 방식은 후술될 것이다.
다시 도 1을 참조하면, 123단계에서 단말(101)은 해당 센서의 초기 감지 영역을 결정한다. 상기 초기 감지 영역은 해당 센서에 대한 센서 영향 객체들을 식별하지 않고 공간의 구성 이미지와 센서 정보의 감지 범위와 감지 각도를 고려하여 결정된 것이다. 즉, 상기 도 4 (a)에서 설명된 거리별 영향도 함수(f(x))와, 도 4의 (b)에서 설명된 감지 영향도 계수(Y)를 고려하지 않고, 해당 센서의 감지 범위 및 감지 각도를 고려하여 감지 영역을 결정한 것이다.
도 2d의 223단계에 도시된 도면은 센서 A의 초기 감지 영역의 일 예를 도시한 것이다. 즉, 센서 A가 도 4의 (a)의 센서 1(=온도 센서)이라면, 상기 센서 A는 도 4의 (a)의 센서 정보 중 감지 범위(12m)와 감지 각도(제한 없음)에 기초하여 초기 감지 영역이 결정된다. 그에 따라 센서가 위치한 영역(223-1) 내의 구성 이미지에서 객체 B의 존재를 알고 있지만, 객체 B가 어떤 사물인지 식별하지 않은 채 센서 A의 감지 영역을 결정한다. 도 2d에서 영역(223-1) 전체가 해당 온도 센서의 감지 범위(12m) 이내에 있는 것으로 판단되어, 영역(223-1) 전체가 초기 감지 영역으로 결정되었다. 여기서 주의할 점은, 센서 A가 온도 센서이기 때문에 객체 B가 위치한 지점도 초기 감지 영역에 포함되었다. 온도 센서의 경우 어떤 사물이 있다고 하더라도 온도 센서의 감지 영역은 해당 사물이 온도 센서의 측정을 방해할 수 있을 정도로 크지 않아서, 해당 사물이 위치한 지점에서 공기가 흐를 수 있다면 온도 센서의 감지 영역은 그 사물의 의하여 영향을 받지 않기 때문이다. 도 2d에서 객체 B가 있다는 사실을 구성 이미지로부터 알고 있지만, 온도 센서 A는 객체 B의 윗부분에 대한 온도를 측정할 수 있으므로, 온도 센서 A의 초기 감지 영역을 결정 시에 객체 B는 영향을 미치지 못하였다. 만일 센서 A가 조도 센서라면 센서 A를 기준으로 객체 B의 뒤 부분의 조도를 감지할 수 없을 것이기 때문에, 이 경우에 초기 감지 영역은 온도 센서에서의 초기 감지 영역과는 다를 수 있다.
이후의 125단계는 선택적인 과정으로, 125단계는 상기 121단계에서 센서 영향 객체 정보를 수신한 경우에 수행될 수 있다. 그에 따라 125단계는 점선으로 도시되었다. 125단계에서 단말(101)은 상기 센서 영향 객체 정보를 이용하여 공간의 구성 이미지에서 센서에 영향을 주는 센서 영향 객체를 식별한다. 단말(101)은 센서 영향 객체들을 식별하기 위하여, 121단계에서 수신한 센서 영향 객체 정보에 포함된 객체들의 이미지를 이용하여, 111단계에서 획득한 공간의 이미지로부터 현재 공간에 존재하는 센서 영향 객체들이 무엇인지 식별하여 해당 객체에 대응하는 센서 영향 객체 정보를 활용할 수 있다. 도 2e의 225단계는 단말(101)이 센서 영향 객체들을 식별한 예를 도시하고 있다. 즉, 센서 영향 객체들인 TV(B), 난로(C), 컴퓨터(D)가 표기되었다.
127단계에서 단말(101)은 최종 감지 영역을 결정한다. 최종 감지 영역은 상기 결정된 초기 감지 영역과 상기 공간의 구성 이미지에 기초하여 센서들별로 소정의 방식에 의하여 결정될 수 있다.
다른 실시예에서, 만일 단말(101)이 상기 121단계에서 센서 영향 객체 정보를 수신하였다면 상기 공간의 구성 이미지 외에 상기 센서 영향 객체의 영향도를 고려하여, 초기 감지 영역을 보정하여 최종 감지 영역을 결정할 수 있다. 도 2f의 227단계는 초기 감지 영역을 보정하여 최종 감지 영역을 결정한 일 예를 도시한 것이다. 도 2f를 참조하면, 센서 A가 객체 B가 TV임을 식별하고, 도 4 (a)에서 설명된 거리별 영향도 함수(f(x))와, 도 4의 (b)에서 설명된 감지 영향도 계수(Y)를 고려하여 센서 A의 감지 영역을 보정한 것이다. 즉, 영역 227-1은 온도 센서의 거리별 영향도 함수(f(x)), TV의 온도 센서에 대한 감지 영향도 계수(Y)를 고려하여 센서 A의 초기 감지 영역에서 제외된 영역이다. 구체적으로, 상기 영역 227-1은 온도 센서의 거리별 영향도 함수(f(x))와 감지 영향도 계수(Y)의 곱에 해당하는 값으로 계산될 수 있다. 다만, 상기 영역 227-1은 온도 센서의 거리별 영향도 함수(f(x))와 감지 영향도 계수(Y)의 곱이 소정 기준값 이하가 될 경우 해당 객체 B는 센서 A에 미치는 영향이 매우 작은 것으로 판단하여, 영역 227-1을 초기 감지 영역에서 제외하지 않을 수도 있다.
참고로, 감지 영역에 대한 보정 값은, 하기 <수학식 1>에 의해서 표현되는 보정 값에 따라 결정될 수 있다. 다만, <수학식 1>은 보정 값을 결정하기 위한 일 예일 뿐이며, 보정 값은 객체의 영향도를 고려하는 다양한 방식으로 결정될 수 있다.
Figure pat00001
상기 <수학식 1>에 의하여 보정 값의 결과 값만큼 해당 객체의 주변은 센서의 감지 영역에 영향을 미치는 것으로 해석될 수 있고, 이렇게 센서의 감지 영역에 영향을 미치는 상기 객체의 주변 영역을 센서의 초기 감지 영역에서 제외시켜서 최종 감지 영역을 결정할 수 있다. 다만, 상기 보정 값의 크기가 소정 기준 값 이하라면 해당 센서 영향 객체는 센서에 영향을 미치지 않는 것으로 보아 센서의 초기 감지 영역을 보정하지 않을 수 있다.
한편, 센서들별로 최종 감지 영역이 결정되는 방식이 다를 수 있다. 상기 도 2f는 온도 센서를 가정한 예이지만, 다른 예로, 도 2g의 229단계는 조도 센서의 경우 최종 감지 영역을 결정하는 예를 설명한다. 구체적으로, 조도 센서의 경우 초기 감지 영역 내에서 특정 위치에 사물, 즉, 객체가 존재하는지 여부를 기준으로 최종 감지 영역을 결정할 수 있다.
도 2f의 229단계에서 조도 센서인 센서 A는 센서 A를 기준으로 TV(B) 뒷부분의 조도는 감지할 수 없을 것이다. 따라서 도 2f에서 TV(B) 뒷부분의 영역(229-1)은 센서 A가 감지할 수 없는 영역(즉, 음영 영역)으로 표시되었다. 다만, 주의할 점은 도 2f의 공간 구성 이미지는 2차원 이미지이므로, 음영 영역을 결정할 때 TV의 높이를 고려해야 할 것이다. 일 예로, TV(B)가 높을수록 TV 뒤쪽 영역들 중 음영 영역의 범위는 커질 것이다. TV(B)가 받침대를 포함하여 1.2m 높이에 위치하고 있고, 그에 따라 바닥으로부터 높이 1m까지는 조도가 감지되지 않고, 높이 1m ~2m까지는 조도가 감지될 수 있다고 가정하자. 이러한 경우 TV 뒷부분 영역(229-1)은 소정 임계값을 기준으로 음영 영역인지 여부가 결정될 수 있다. 예를 들어, 음영 영역 여부를 결정하기 위한 기준 높이를 1.5m로 설정하였다면, 상기 예에서 높이 1.5m까지 조도가 감지되지 않기 때문에 해당 영역 전체(229-1)가 음영 영역으로 결정된다. 다만, 공간의 구성 이미지가 3차원 이미지일 경우 음영 영역은 3차원으로 표시될 수 있으므로, 상기 2차원 공간 구성 이미지인 경우와 같은 문제는 발생하지 않을 것이다. 한편, 다른 센서들에 대한 센서별 최종 감지 영역 결정 방식에 대해서는 후술하기로 한다.
다시 도 1을 참조하면, 129단계에서는 센서의 최종 감지 영역을 기초로 공간에 추가 센서가 필요한지 여부를 결정한다. 이 단계는 필수적인 단계는 아니고 필요에 따라 추가로 수행될 수 있다. 상기 129단계는 127단계에서 결정된 최종 감지 영역의 이미지를 사용자에게 디스플레이하고, 팝업 창 형식의 메시지를 이용하여 사용자에게 추가 설치 여부를 문의하는 형식으로 사용자의 결정에 의하여 센서의 추가 여부가 결정될 수 있다. 상기 최종 감지 영역의 이미지를 사용자에게 디스플레이할 경우, 예를 들어, 증강 현실(Augmented Reality: AR) 기술 등을 이용하여 현재 설치된 센서의 감지 영역 및/또는 센서의 음영 영역을 단말(101)의 디스플레이를 통하여 건물 관리자에게 표시할 수 있다. 이때 센서의 감지 영역은 다양한 방식으로 구현될 수 있다. 예를 들어, 현재 설치된 센서의 위치를 표시하고, 다른 종류의 센서들 중 특정 센서를 선택할 경우, 선택한 종류의 센서만을 사용자에게 표시할 수도 있다. 일 예로, 단말(101)의 디스플레이를 통하여 센서를 선택하는 메뉴가 표시되고, 사용자가 연기 센서를 선택한 경우 연기 센서들을 깜빡이거나, 또는 다른 센서들과 구별되는 색깔로 변경하여 표시할 수 있다. 또한, 센서의 위치뿐 아니라 특정 종류의 센서의 감지 영역을 강조하여 표시하여, 상기 특정 센서의 음영 영역을 반전하여 표시하는 등의 방식이 사용될 수 있다. 후술되는 도 6의 615는 현재 설치된 센서 및/또는 센서의 감지 영역 등이 표시된 일 예이다. 다만, 도 6의 615에서는 아래의 131단계에서 설명될 가상 센서 설치 모드에 따라 현재 설치된 센서 A 및 센서 B와 추가로 설치될 가상 센서의 감지 영역이 표시되었다. 다만, 129단계는 사용자에게 현재 설치된 센서들의 정보를 표시하는 단계이므로, 도 6의 615에서 가상 센서를 제외하고 현재 설치된 센서 A와 센서 B만이 사용자에게 표시될 것이다..
건물 관리자는 상기 증강 현실 기술 등을 이용하여 표시된 감지 영역 및/또는 음영 영역을 직관적으로 판단할 수 있어, 해당 공간에 추가 센서가 필요한지 여부를 쉽게 결정할 수 있다.
다른 예로, 사용자의 결정 없이 소정 기준, 일 예로, 음영 영역이 전체 영역의 일정 비율 이상인지 여부, 또는 음영 영역이 공간의 특정 지점을 포함하는지 여부 등에 의하여 센서의 추가 여부가 결정될 수도 있을 것이다.
129단계에서 센서의 추가가 결정되면 131단계로 진행하여, 가상 센서 설치 모드에 의한 동작을 수행한다. 131단계의 가상 센서 설치 모드의 상세 동작은 도 5 및 도 6에서 설명될 것이다. 한편, 센서를 추가하지 않을 것으로 결정되면 133단계로 진행하여 최종 감지 영역을 공간의 구성 이미지에 표시한다. 여기서 최종 감지 영역을 표시할 경우, 상기 129단계에서 설명된 바와 같이, 예를 들어, 증강 현실(Augmented Reality: AR) 기술 등을 이용하여 현재 설치된 센서들의 감지 영역 및/또는 음영 영역을 단말(101)의 디스플레이를 통하여 건물 관리자에게 표시할 수 있다.
이하에서 상기 131단계의 가상 센서 설치 모드의 동작을 도 5 및 도 6을 참조하여 설명한다.
도 5는 본 개시의 실시예에 의한 가상 센서 설치 모드의 동작을 설명하는 도면이고, 도 6은 본 개시의 실시예에 의한 가상 센서 설치 모드의 동작에 따라 가상 센서가 설치될 위치를 결정하는 일 예를 설명하는 도면이다.
501단계에서 단말(101)은 서버(103)에게 센서 영향 객체 정보를 요청하고, 503단계에서 센서 영향 객체 정보를 수신한다. 다만, 도 1의 121단계에서 단말(101)이 센서 영향 객체 정보를 수신하였다면 501단계와 503단계는 필요하지 않을 것이다.
505단계에서 단말(101)은 상기 센서 영향 객체 정보에 기초하여 공간에 존재하는 센서 영향 객체를 식별한다. 구체적으로, 단말(101)은 센서 영향 객체 정보에 포함된 센서 영향 객체들의 이미지를 이용하여 단말(101) 자신이 촬영한 공간 이미지에서 센서 영향 객체들을 식별할 수 있다. 도 6의 611단계의 도면은 단말(101)이 센서 영향 객체들을 식별한 예를 도시한 것으로, 난로와 컴퓨터가 객체들로 식별되었다.
507단계에서 단말(101)은 가상 센서의 초기 위치를 결정한다. 가상 센서의 초기 위치는 현재 설치된 센서들의 감지 영역과 공간의 구성 이미지에 기초하여 다양한 방식에 의하여 결정될 수 있다. 대표적인 예로, 일정한 면적에 비정형의 물품을 효율적으로 배치하기 위한 네스팅 알고리즘 또는 센서들이 최대의 커버리지를 얻기 위한 유전 알고리즘 등이 사용될 수 있다. 도 6의 613단계의 도면은 가상 센서의 초기 위치를 결정한 것을 도시한 것이다.
509단계에서 단말(101)은 공간에 존재하는 센서 영향 객체를 고려하여 가상 센서의 초기 위치를 보정하기 위한 보정 값을 결정하고, 결정된 보정 값에 따라 가상 센서의 최종 위치를 결정한다.
상기 보정 값은 도 4의 (a)에서 설명된 센서 정보의 거리별 영향도 함수(f(x))와, 도 4의 (b)에서 설명된 센서 영향 객체 정보의 감지 영향도 계수(Y)에 기초하여 결정될 수 있다. 구체적으로, 보정 값은 상기 <수학식 1>에서 설명된 보정 값에 의하여 결정될 수 있다. 즉, 상기 <수학식 1>의 보정 값은 센서의 최종 감지 영역을 결정하거나 또는 추가 센서의 위치를 결정하는 데 사용될 수 있다.
상기 <수학식 1>에 의하여 추가 센서의 위치를 결정하는 예는 아래와 같다.
도 4의 (a)에서 온도 센서인 센서 1을 가상 센서로 추가 설치하고자 하고, 가상 센서의 초기 위치로부터 1m 떨어져서 온풍기가 있고, 상기 센서 1의 영향도 상수 값 α=0.2라고 가정하자. 따라서 거리별 영향도 함수(f(x))=0.2/10이다. 한편, 도 4의 (b)에서 온풍기의 온도에 대한 감지 영향도 계수의 값은 0.8이다. 따라서 보정 값은 0.2/1 X 0.8=0.16이 된다. 이 보정 값의 결과에 따라 센서 1의 최종 위치는 온풍기를 기준으로 센서 1의 최초 위치로부터 0.16m가 이동한 위치가 된다. 따라서 센서 1의 초기 위치는 온풍기로부터 10m 떨어진 지점이었지만, 센서 영향 객체와 센서 1과의 거리와 센서 영향 객체가 센서 1의 감지 영역에 영향을 미치는 정도를 고려하여 보정한 결과, 센서 1의 최종 위치는 온풍기로부터 (10+0.16)m 떨어진 지점이 된다.
도 6의 614단계의 도면은 가상 센서의 초기 위치를 보정하여 가상 센서의 최종 위치를 이동한 것을 도시한 것이다. 614단계를 참조하면, 상기 <수학식 1>에 의하여 계산된 난로에 대한 보정 값은 0.4이고, 컴퓨터에 대한 보정 값은 0.2 이다. 따라서 가상 센서의 최종 위치는 초기 위치로부터 난로로부터 0.4m 더 이동하고, 컴퓨터로부터 0.2미터 더 이동한 벡터합의 지점이 된 것을 볼 수 있다. 이처럼, 가상 센서의 최종 위치는 가상 센서의 초기 위치로부터 해당 가상 센서에 대한 센서 영향 객체들의 보정 값들의 벡터 합만큼 이동한 값이 된다. 이러한 의미에서 상기 가상 센서에 대한 보정 값들의 벡터 합을 “척력 벡터”라고 칭할 수 있다.
이렇게 가상 센서의 최종 위치가 결정되면 단말(101)은 상기 결정된 가상 센서의 위치에 따라 가상 센서를 공간의 구성 이미지에 표시하여 사용자에게 출력할 수 있다. 도 6의 615 단계의 도면은 가상 센서의 최종 위치를 공간의 구성 이미지에 포함하여 표시한 일 예를 도시한다. 이를 참조하며, 추가 설치될 가상 센서의 위치와 감지 영역 및 기존에 설치된 센서 A와 센서 B의 위치와 감지 영역이 표시되어 있음이 도시되어 있다.
이하에서는 앞서 도 1의 127단계에서 설명된 최종 감지 영역을 결정하는 방식에 대하여 각각의 센서별로 설명할 것이다.
<조도 센서/인체 감지 센서>
조도 센서와 인체 감지 센서는 최종 감지 영역을 결정하는 방식이 동일하다.
첫 번째 방식은 센서 정보에 의하여 결정된 초기 감지 영역의 범위 내의 특정 지점과 센서와의 직선 경로 사이에 사물이 존재하는지 여부에 따라 결정하는 방식이다. 즉, 해당 경로 사이에 사물이 존재하면, 센서는 해당 사물 뒤에 있는 사람 또는 빛을 감지하기 어렵다. 그에 따라 해당 사물 뒤의 영역을 감지가 불가능한 음영 영역으로 결정할 수 있다. 이 방식은 도 2의 227단계에서 이미 설명된 것과 동일하다.
두 번째 방식은, 상기 첫 번째 방식에 센서 영향 객체를 고려한 보정 값을 결정하고, 결정된 보정 값에 따라 초기 감지 영역을 보정하여 최종 감지 영역을 결정하는 방식이다. 상기 두 번째 방식은 도 1의 121단계에서 단말이 센서 영향 객체 정보를 수신한 경우에 적용될 수 있으며, 이 경우 상기 <수학식 1>에 정의한 보정 값이 최종 감지 영역을 결정 시에 사용될 수 있다. 상기 두 번째 방식은 앞서 127단계에서 설명된 방식이다.
<온도 센서>
첫 번째 방식은 공간의 특정 위치에서 기류를 시뮬레이션하고, 시뮬레이션 결과 상기 특정 지점에서 기류가 흐를 수 있다면, 상기 특정 지점을 최종 감지 영역으로 결정하는 방식이다.
상기 시뮬레이션 방식은 다음과 같이 수행될 수 있다. 먼저, 특정 지점에 유입되는 풍량이 증가하기 전의 공간 기류와 온도 분포를 해석하기 위하여 수치 해석을 수행한다. 상기 수치 해석은, 예를 들어, 유한 체적법이 사용될 수 있다. 이후, 상기 수치 해석의 결과를 초기 조건으로 하여 유입되는 풍량이 증가한 이후 시간에 따른 기류의 분포 및 온도 분포의 해석을 위하여 비정상 수치 해석을 수행한다.
두 번째 방식은 상기 첫 번째 방식에 의한 시뮬레이션 결과 상기 특정 위치에서 기류가 흐를 수 있고, 해당 위치에서의 온도 응답성이 소정 값 미만이면 상기 특정 위치를 최종 감지 영역으로 결정하는 방식이다. 참고로 상기 온도 응답성이란 주위의 온도를 빠르게 감지하는 능력이며, 온도 응답성의 값이 낮을수록 온도 응답성은 좋은 것으로, 주위의 온도를 빠르게 감지할 수 있다.
세 번째 방식은, 상기 첫 번째 방식 또는 두 번째 방식에 센서 영향 객체 정보를 고려한 보정 값을 결정하고, 결정된 보정 값에 따라 초기 감지 영역을 보정하여 최종 감지 영역을 결정하는 방식이다. 상기 세 번째 방식은 도 1의 121단계에서 단말이 센서 영향 객체 정보를 수신한 경우에 적용될 수 있으며, 이 경우 상기 <수학식 1>에 정의한 보정 값이 최종 감지 영역을 결정 시에 사용될 수 있다. 상기 세 번째 방식은 앞서 127단계에서 설명된 방식이다.
<연기 감지 센서>
첫 번째 방식은 상기 온도 센서에서의 첫 번째 방식과 동일하게, 공간의 특정 위치에서 기류를 시뮬레이션하고, 시뮬레이션 결과 상기 특정 지점에서 기류가 흐를 수 있다면, 상기 특정 지점을 최종 감지 영역으로 결정하는 방식이다.
두 번째 방식은, 상기 조도 센서의 첫 번째 방식과 동일한 방식이다. 즉, 센서 정보에 기초하여 해당 센서의 감지 거리 내의 직선 경로 상에 객체가 존재하지 않으며 해당 영역을 감지 영역으로 결정하는 방식이다. 즉, 센서 정보에 의하여 결정된 초기 감지 영역의 범위 내의 특정 지점과 센서와의 직선 경로 사이에 사물이 존재하는지 여부에 따라 결정한다.
세 번째 방식은, 상기 첫 번째 방식 또는 두 번째 방식에 센서 영향 객체 정보를 고려한 보정 값을 결정하고, 결정된 보정 값에 따라 초기 감지 영역을 보정하여 최종 감지 영역을 결정하는 방식이다. 상기 세 번째 방식은 도 1의 121단계에서 단말이 센서 영향 객체 정보를 수신한 경우에 적용될 수 있으며, 이 경우 상기 <수학식 1>에 정의한 보정 값이 최종 감지 영역을 결정 시에 사용될 수 있다. 상기 세 번째 방식은 앞서 127단계에서 설명된 방식이다.
이하에서는 앞서 도 1의 131단계에서 설명된 가상 센서 설치 모드의 동작 시에 가상 센서를 설치하는 위치를 결정하는 방식에 대하여 각각의 센서별로 설명할 것이다.
<조도 센서/인체 감지 센서>
조도 센서 및 인체 감시 센서는 앞서 도 5에서 설명된 방식이 그대로 적용될 수 있다. 즉, 네스팅 알고리즘 또는 유전 알고리즘 등을 이용하여 가상 센서의 초기 위치를 결정하고, 결정된 초기 위치에서 센서 영향 객체를 고려한 보정 값을 계산하여 초기 위치를 보정하여 가상 센서가 설치될 최종 위치를 결정할 수 있다.
<온도 센서>
앞에서 설명된 것처럼, 온도 센서의 최종 감지 영역을 결정하는 두 번째 방식에서는 특정 위치에서 기류를 시뮬레이션한 결과 기류가 흐를 수 있고, 온도 응답성이 소정값 미만이면 최종 감지 영역으로 결정되었다. 한편, 온도 센서에서 가상 센서를 설치하는 위치를 결정할 때도, 상기 시뮬레이션 결과와 온도 응답성이 고려될 수 있다.
즉, 첫 번째 방식은 상기 기류 시뮬레이션의 결과 기류가 흐를 수 있고, 온도 응답성이 최소인 위치를 가상 센서가 설치될 위치로 결정하는 방식이다. 참고로 온도 응답성이 최소인 위치는 다음과 같이 결정될 수 있다. 즉, 복수 개의 후보 위치에서 시간 상수를 계산하고, 상기 후보 위치들에서의 시간 상수를 비교하여 시간 상수가 최소인 위치가 온도 응답성이 최소인 위치로서, 가상 센서가 설치될 위치가 될 수 있다.
두 번째 방식은, 앞서 도 5에서 설명된 방식과 동일하다. 즉, 소정의 공간 배치 알고리즘을 이용하여 가상 센서의 초기 위치를 결정하고, 결정된 초기 위치에서 센서 영향 객체를 고려한 보정 값을 계산하여 초기 위치를 보정하여 최종 위치를 결정할 수 있다.
<연기 감지 센서/ 기타 센서>
첫 번째 방식은, 복수 개의 타입들 중 설치하고자 하는 하나의 타입의 연기 감지 센서를 선택하고, 현재 가상 센서를 설치할 공간과, 선택된 센서의 모델 맵들에서 제공하는 공간들을 비교하여 일치하거나 또는 소정 기준 값 이상 유사한 모델 맵을 찾으며, 해당 모델 맵에서 제공하는 설치 가이드가 제공하는 위치를 설치 위치로 결정하는 방식이다. 하기 <표 1>은 연기 감지 센서의 종류를 나타낸 것이고, 하기 <표 2>는 센서가 설치될 공간에 대한 가이드를 제공하는 모델 맵에 대한 일 예를 나타낸다.
Figure pat00002
Figure pat00003
두 번째 방식은, 앞서 도 5에서 설명된 방식과 동일하다. 즉, 소정의 공간 배치 알고리즘을 이용하여 가상 센서의 초기 위치를 결정하고, 결정된 초기 위치에서 센서 영향 객체를 고려한 보정 값을 계산하여 초기 위치를 보정하여 가상 센서가 설치될 최종 위치를 결정할 수 있다.
지금까지 도 1 내지 도 6을 참조하여, 도 1을 중심으로 하는 본 개시의 기본 실시예를 설명하였다. 이하에서는 도 7 내지 도 9를 참조하여 본 개시의 변형 실시예를 설명한다. 각각의 도면에서 도 1과 중복되는 부분의 설명을 생략하고, 도 1과의 차이점에 대하여 설명할 것이다.
도 1에서 단말은 촬영된 2차원 또는 3차원 공간 이미지로부터 센서를 식별하였다. 그러나 센서는 크기가 작은 것이 일반적이므로 촬영된 이미지로부터 센서를 식별하기 어려울 수 있다. 따라서 단말의 센서의 위치와 센서 ID 등의 정보를 센서 또는 서버로부터 수신할 수도 있을 것이다. 도 7 내지 도 9는 이러한 변형 실시예들을 설명한다.
도 7은 본 개시의 다른 실시예에 따라 센서와 관련된 정보를 서버로부터 수신하는 실시예를 설명하는 도면이다.
도 1과 다른 부분만을 설명하면, 도 1의 117단계에서 단말(101)은 센서 ID를 공간 이미지와 상기 단말(101)이 저장하고 있는 센서별 매핑 테이블로부터 획득하였다. 반면, 도 7에서 717-1 단계에서 단말(101)은 센서 ID, 센서(102)가 송신하는 신호의 송신 신호 세기 및/또는 송신 신호 시간을 센서(102)로부터 수신한다. 참고로, 센서(102)는 상기 정보들을 브로드캐스팅하거나 또는 단말(101)과의 페어링 동작을 통하여 상기 단말(101)에게 송신할 수 있다. 추가로, 상기 센서(102)와 단말(101) 간 정보 교환은 브로드캐스팅 또는 페어링 뿐 아니라 블루투스(Bluetooth), BLE, 근거리 자기장 통신(NFC), 지그비 통신(Zigbee), 지그-웨이브(Zigwave), RFID, 적외선(IrDA) 또는 LTE D2D 등을 포함하는 무선 통신 방식 통신 등 다양한 통신 방식이 사용될 수 있다.
717-2 단계에서 단말(101)은 수신한 센서 ID와 송신 신호 세기 및/또는 송신 신호 시간에 기초하여 센서의 위치, 즉, 단말(101)과의 거리 및 방향을 계산한다. 참고로, 센서(102)가 자신이 송신하는 신호 세기 정보를 단말(101)에게 송신하면, 단말(101)은 송신 신호 세기 정보와 수신한 신호 세기를 비교하여 그 차이 값을 이용하여 단말(101)과 센서 간의 거리를 추정할 수 있다. 이를 RSSI(Received Sigal Strength Indicator)를 이용한 거리 측정 방식이라고 한다. 또한, 센서(102)가 송신한 신호의 송신 시간과 단말(101)이 수신한 시간과의 시간 차이를 이용하여 센서와 단말(101) 간의 거리를 계산할 수도 있다. 717-3 단계에서 단말(101)은 상기 계산 결과에 기초하여 공간의 구성 이미지에서 센서의 위치를 결정한다. 이후의 동작은 도 1과 동일하므로 생략한다.
도 8은 본 개시의 또 다른 실시예에 따라 센서와 관련된 정보를 센서로부터 수신하는 실시예를 설명하는 도면이다
도 1과 다른 점을 설명하면, 도 1의 117단계에서 단말(101)은 센서 ID를 공간 이미지와 상기 단말(101)이 저장하고 있는 센서별 매핑 테이블로부터 획득하였다. 반면, 도 8의 817-1 단계에서 센서(102)는 센서 ID, 센서가 송신하는 신호의 송신 신호 세기(또는 송신 신호 시간), 감지 거리를 포함하는 센서 정보를 단말(101)에게 송신한다. 추가적인 실시예로서, 센서(102)는 센서 영향 객체 정보를 단말(101)에게 송신할 수도 있다. 817-2 단계에서 단말(101)은 수신한 정보들을 이용하여 센서의 위치(단말(101)과의 거리 및 방향)를 계산하고, 817-3단계에서 공간의 구성 이미지에서 센서의 위치를 결정한다.
한편, 도 8에서 단말(101)은 센서 정보 및/또는 센서 영향 객체 정보를 모두 센서(102)로부터 수신하였기 때문에 더 이상 서버와의 통신이 필요하지 않다. 따라서 도 8에서는 도 1의 119단계 및 121단계는 생략되었다.
도 9는 본 개시의 다른 실시예에 따라 단말(101)이 자신의 위치 정보를 서버에게 송신하여 서버로부터 센서와 관련된 정보를 센서로부터 수신하는 실시예를 설명하는 도면이다
도 1과 다른 부분을 설명한다. 도 1의 117단계에서 단말(101)은 이미지로부터 센서 ID를 획득하였다. 한편, 도 9의 경우, 단말(101)은 113단계에서 공간의 구성 이미지 생성 시 사용되는 공간 이미지 촬영 시의 단말의 위치 정보를 저장하고, 저장된 위치 정보를 서버(103)에게 송신한다. 이후, 917-3단계에서 단말(101)은 서버(103)로부터 상기 단말(101)의 촬영 위치에 인접한 센서들의 ID 및 센서의 위치 정보를 수신하고, 917-4단계에서 센서들 중 적어도 하나의 센서(102)를 선택하고, 917-5 단계에서 공간의 구성 이미지에서 상기 센서의 위치를 지정하여 센서를 식별할 수 있다. 이후의 119단계 이하의 동작은 도 1과 동일하다.
이하에서는 상술한 본 개시의 실시예들을 기초로 하여 단말의 방법과 장치 구성에 대하여 설명한다.
도 10은 본 개시의 실시예에 의한 단말 동작을 설명하는 도면이다.
1001단계에서 단말은 카메라 등을 이용하여 촬영한 공간 이미지를 획득하고, 1003단계에서 상기 공간 이미지를 이용하여 공간의 구성을 분석하여 공간의 구성 이미지를 생성한다. 상기 공간의 구성 이미지는 단말의 위치 정보와 상기 공간 이미지 중 적어도 하나에 기초하여 생성될 수 있다. 다른 실시예로, 상기 공간의 구성 이미지는 상기 공간의 이미지와 CAD와 같은 건물 구조를 나타내는 도면을 이용하여 생성될 수 있다. 1005단계에서는 공간에 설치된 센서의 센서 ID를 획득한다. 상기 센서 ID는 상기 공간 이미지로부터 센서 이미지를 식별하고, 미리 저장된 센서별 매핑 테이블 정보로부터 센서 이미지에 대응하는 센서 ID를 획득할 수 있다. 다른 방식으로 상기 센서 ID를 센서로부터 직접 수신할 수도 있다. 또한, 1007단계에서 상기 센서 ID의 감지 범위 등의 정보를 포함하는 센서 정보 및/또는 센서 영향 객체 정보를 획득한다. 상기 센서 정보 및/또는 센서 영향 객체 정보는 센서로부터 직접 수신하거나, 서버로부터 수신할 수 있다. 이후, 1009단계에서 단말은 센서 정보 및/또는 센서 영향 정보를 이용하여 센서 감지 영역을 결정한다. 즉, 센서 정보에 기초하여 초기 감지 영역을 결정한 이후 최종 감지 영역을 결정한다. 1011단계에서는 상기 최종 감지 영역에 기초하여 센서의 추가 여부를 결정하고, 센서를 추가할 것이라면, 1013단계에서 센서 정보 및/또는 센서 영향 객체 정보를 고려하여 추가될 가상 센서의 위치를 결정하고, 센서를 추가하지 않는다면, 1015단계에서 상기 결정된 최종 감지 영역을 단말기에 디스플레이한다.
도 11은 본 개시의 실시예에 의한 단말 장치의 구성을 설명하는 도면이다.
단말 장치는 제어부(1110), 촬영부(1120), 입력부(1130), 통신부(1140), 저장부(1150), 출력부(1160)를 포함한다.
제어부(1110)는 상술한 본 개시의 실시예들의 전반적인 동작을 수행하고, 단말 장치의 다른 구성들을 제어한다. 예를 들어, 공간의 이미지와 단말의 위치 정보를 이용하여 공간의 구성 이미지를 생성하고, 센서 정보 및/또는 센서 영향 객체 정보에 기초하여 센서의 초기 감지 영역 및/또는 최종 감지 영역을 결정할 수 있다. 또한, 추가적인 센서가 필요한지 여부를 결정할 수도 있으며, 추가 센서가 필요한 경우 가상 센서 설치 모드에 필요한 동작을 수행한다. 구체적인 동작 방식은 상술한 실시예들에서 설명되었으므로 그 설명은 생략한다.
촬영부(1120)는 각종 카메라 모듈(1121, 1122, 1123)을 포함하며, 본 개시의 실시예에 따라 2차원 또는 3차원의 공간 이미지 촬영한다. 입력부(1130)는 사용자 인터페이스를 위한 구성들(1134, 1135)과 각종 센서들(1131, 1132, 1133)을 포함한다. 통신부(1140)는 단말 장치가 통신을 수행하기 위한 통신 모듈들(1141, 1142, 1143)을 포함하여, 서버와 통신을 수행하는 데 이용된다. 저장부(115)는 본 개시의 실시예를 위한 각종 정보들, 일 예로, 센서 이미지 정보, 센서 정보, 센서 영향 객체 정보 들을 저장한다. 상술한 다양한 실시예들에 따라 상기 정보들은 서버 또는 센서들로부터 직접 수신되거나 또는 단말에 미리 저장된 것일 수 있다. 출력부(1160)는 상술한 실시예들에 의한 따라 사용자에게 필요한 사항을 출력하기 위한 여러 구성들(1161, 1162, 1163)을 포함한다.
지금까지 본 개시에 따라 센서의 감지 영역을 결정하고, 추가 센서가 필요한 경우 센서가 추가될 위치를 결정하는 실시예들이 설명되었다. 이러한 본 개시는 IoT 디바이스로 확장될 수 있다. 일 예로, 센서 대신 전구의 빛이 공간의 어느 공간까지 영향을 미치는지 여부에 적용될 수 있다. 즉, 상술한 실시예를 적용하면 사용자가 전구를 인터넷으로 구입하고자 할 때 해당 전구를 공간의 특정 위치에 설치하였을 때, 전구의 빛이 공간의 어디까지 미치는지 실제 전구를 설치해 보지 않더라도 알 수 있다. 또한, 사용자가 전구를 구매하여 사용자의 집에 설치하지 않더라도, 전구의 빛의 실제 색이 무엇인지, 또는 구매하고자 하는 전구의 빛의 색이 자신의 집에 현재 설치되어 있는 전구의 빛의 색과 유사한지 여부를 알 수 있다. 앞서 설명한 실시예들에서 센서의 역할이 전구가 되고, 센서 영향 객체들은 전구의 빛이 방사되는 것을 방해하는 사물들, 예를 들면, 냉장고, TV, 다른 전구, 세탁기, 컴퓨터, 에어컨, 로봇청소기 등이 될 수 있다.
도 12는 본 개시의 실시예를 IoT 디바이스인 전구에 활용하는 예를 설명하는 도면이다.
참조 번호 1201은 사용자가 단말을 이용하여 인터넷으로 구매하고자 하는 전구들을 도시하고, 참조 번호 1203은 전구가 설치될 공간을 도시한다. 참조 번호 1205는 상기 1203의 공간이 단말을 통하여 사용자에게 보여지는 것을 도시한다. 참조 번호 1207은 사용자가 녹색 전구를 선택하였을 때, 해당 녹색 전구의 빛이 방사되는 형태를 도시한 것이고, 참조 번호 1209는 사용자가 붉은색 전구를 선택하였을 때 해당 붉은색 전구의 빛이 방사되는 형태를 도시한 것이다. 사용자는 상기 도 12의 실시예에 따라 해당 전구를 구매하기 이전에 전구의 빛의 형태를 알 수 있으므로, 사용자는 자신의 집에서 해당 전구가 설치될 최적의 장소를 결정할 수도 있다. 또한, 도 12의 실시예는 공간 인테리어 시의 조명 선택 또는 무대 조명의 선택에도 활용될 수 있다. 예들 들어, 무대 조명은 여러 가지의 조명들이 혼합되어 다양한 색을 내는데, 상기 도 12의 실시예에 따라 사용자의 단말기를 통하여 여러 가지 조명들을 혼합한 결과 어떤 색상이 나타나는지 미리 알 수 있다.
상술한 본 개시의 특정 측면들은 또한 컴퓨터 리드 가능 기록 매체(computer readable recording medium)에서 컴퓨터 리드 가능 코드(computer readable code)로서 구현될 수 있다. 컴퓨터 리드 가능 기록 매체는 컴퓨터 시스템에 의하여 리드될 수 있는 데이터를 저장할 수 있는 임의의 데이터 저장 디바이스이다. 상기 컴퓨터 리드 가능 기록 매체의 예들은 리드 온니 메모리(Read-Only Memory: ROM)와, 랜덤-접속 메모리(Random-Access Memory: RAM)와, CD-ROM들과, 마그네틱 테이프(magnetic tape)들과, 플로피 디스크(floppy disk)들과, 광 데이터 저장 디바이스들, 및 캐리어 웨이브(carrier wave)들(상기 인터넷을 통한 데이터 송신과 같은)을 포함할 수 있다. 상기 컴퓨터 리드 가능 기록 매체는 또한 네트워크 연결된 컴퓨터 시스템들을 통하여 분산될 수 있고, 따라서 상기 컴퓨터 리드 가능 코드는 분산 방식으로 저장 및 실행된다. 또한, 본 개시를 성취하기 위한 기능적 프로그램들, 코드, 및 코드 세그먼트(segment)들은 본 개시가 적용되는 분야에서 숙련된 프로그래머들에 의하여 쉽게 해석될 수 있다.
또한, 본 개시의 일 실시예에 따른 장치 및 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 개시의 일 실시예에 따른 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의하여 구현될 수 있고, 상기 메모리는 본 개시의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다.
따라서, 본 개시는 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통하여 전달되는 통신 신호와 같은 임의의 매체를 통하여 전자적으로 이송될 수 있고, 본 개시는 이와 균등한 것을 적절하게 포함한다
또한, 본 개시의 일 실시예에 따른 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 프로그램 처리 장치가 기 설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 그래픽 처리 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 그래픽 처리 장치의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 송신하는 제어부를 포함할 수 있다.

Claims (20)

  1. 센서를 관리하는 방법에 있어서,
    센서가 설치된 소정 공간의 구성 이미지를 생성하는 과정과,
    상기 구성 이미지에 기초하여 상기 센서의 센서 식별자를 획득하는 과정과,
    상기 센서 식별자에 대응하는 센서의 센서 정보를 획득하는 과정과,
    상기 구성 이미지와 상기 센서 정보에 기초하여, 상기 센서의 감지 영역을 결정하는 과정과,
    상기 결정된 감지 영역을 상기 구성 이미지에 표시하는 과정을 포함하는 센서를 관리하는 방법.
  2. 제1항에 있어서, 상기 구성 이미지를 생성하는 과정은,
    상기 소정 공간에 대한 2차원 또는 3차원 공간을 촬영하여 공간 이미지를 획득하는 과정과,
    상기 획득한 공간 이미지와 상기 단말의 위치 정보를 이용하여 상기 소정 공간의 구성 이미지를 생성하는 과정을 더 포함하는 센서를 관리하는 방법.
  3. 제1항에 있어서, 상기 센서 식별자를 획득하는 과정은,
    상기 공간 이미지에서 상기 센서 이미지를 식별하는 과정과,
    상기 식별된 센서 이미지에 대응하는 센서 식별자를 미리 저장된 센서별 매핑 테이블로부터 획득하는 과정을 포함하는 센서를 관리하는 방법.
  4. 제1항에 있어서, 상기 센서 정보를 획득하는 과정은,
    상기 센서 식별자를 서버로 송신하는 과정과,
    상기 서버로부터 상기 센서 정보를 수신하는 과정을 포함하는 센서를 관리하는 방법.
  5. 제4항에 있어서, 상기 센서 정보를 획득하는 과정은,
    상기 센서의 감지 영역에 영향을 미치는 객체에 대한 정보인, 센서 영향 객체 정보를 수신하는 과정을 포함하며,
    상기 센서 영향 객체 정보는, 상기 센서 영향 객체의 리스트 정보, 상기 센서 영향 객체가 상기 센서에 미치는 영향도를 지시하는 감지 영향도 계수와 상기 센서 영향 객체의 이미지 정보를 포함하는 센서를 관리하는 방법.
  6. 제5항에 있어서, 상기 센서의 감지 영역을 결정하는 과정은,
    상기 센서 정보에 포함되는 상기 센서의 감지 범위 및 감지 각도에 기초하여 초기 감지 영역을 결정하는 과정과,
    상기 결정된 초기 감지 영역과 상기 구성 이미지에 기초하여 최종 감지 영역을 결정하는 과정을 더 포함하는 센서를 관리하는 방법.
  7. 제6항에 있어서, 상기 최종 감지 영역을 결정하는 과정은,
    상기 센서 정보에 포함되는 거리별 영향도 함수와, 상기 센서 영향 객체 정보에 포함되는 감지 영향도 계수에 기초하여 결정되는 보정 값을 결정하는 과정과,
    상기 결정된 초기 감지 영역에서 상기 결정된 보정 값만큼 보정하는 과정을 포함하는 센서를 관리하는 방법.
  8. 제1항에 있어서,
    상기 결정된 센서의 감지 영역에 기초하여, 상기 소정 공간에 센서를 추가할지 여부를 결정하는 과정과,
    상기 센서의 추가를 결정한 경우, 상기 센서 정보 및 상기 센서의 감지 영역에 영향을 미치는 객체에 대한 정보인 센서 영향 객체 정보 중 적어도 하나에 기초하여, 상기 소정 공간 내에 센서가 추가될 위치를 결정하는 과정을 더 포함하는 센서를 관리하는 방법.
  9. 제8항에 있어서, 상기 센서가 추가될 위치를 결정하는 과정은,
    소정 방식에 의하여 상기 센서가 추가될 초기 위치를 결정하는 과정과,
    상기 결정된 초기 위치에 대한 보정 값을 결정하는 과정과,
    상기 결정된 초기 위치에서 상기 결정된 보정 값만큼 보정하여 상기 센서가 추가될 최종 위치를 결정하는 과정을 포함하는 센서를 관리하는 방법.
  10. 제9항에 있어서, 상기 보정 값을 결정하는 과정은,
    상기 센서 정보에 포함되는 거리별 영향도 함수(f(x))와, 상기 센서 영향 객체 정보에 포함되는 감지 영향도 계수(Y))에 기초하여 결정되는 보정 값을 계산하는 과정과,
    상기 계산된 보정 값을 상기 보정 값으로 결정하는 과정을 포함하는 센서를 관리하는 방법.
  11. 센서를 관리하는 장치에 있어서,
    센서가 설치된 소정 공간의 구성 이미지를 생성하고, 상기 구성 이미지에 기초하여 상기 센서의 센서 식별자를 획득하고, 상기 센서 식별자에 대응하는 센서의 센서 정보를 획득하고, 상기 구성 이미지와 상기 센서 정보에 기초하여, 상기 센서의 감지 영역을 결정하는 제어부와,
    상기 결정된 감지 영역을 상기 구성 이미지에 표시하는 출력부를 포함하는 센서를 관리하는 장치.
  12. 제11항에 있어서, 상기 제어부는,
    상기 구성 이미지를 생성할 시, 상기 소정 공간에 대한 2차원 또는 3차원 공간을 촬영하여 공간 이미지를 획득하고, 상기 획득한 공간 이미지와 상기 단말의 위치 정보를 이용하여 상기 소정 공간의 구성 이미지를 생성함을 특징으로 하는 센서를 관리하는 장치.
  13. 제11항에 있어서, 상기 제어부는,
    상기 센서 식별자를 획득 시, 상기 공간 이미지에서 상기 센서 이미지를 식별하고, 상기 식별된 센서 이미지에 대응하는 센서 식별자를 미리 저장된 센서별 매핑 테이블로부터 획득함을 특징으로 하는 센서를 관리하는 장치.
  14. 제11항에 있어서,
    상기 센서 식별자를 서버로 송신하고, 상기 서버로부터 상기 센서 정보를 수신하는 통신부를 더 포함하는 센서를 관리하는 장치.
  15. 제14항에 있어서,
    상기 통신부는, 상기 센서 정보를 획득 시, 상기 센서의 감지 영역에 영향을 미치는 객체에 대한 정보인, 센서 영향 객체 정보를 수신하고,
    상기 센서 영향 객체 정보는, 상기 센서 영향 객체의 리스트 정보, 상기 센서 영향 객체가 상기 센서에 미치는 영향도를 지시하는 감지 영향도 계수와 상기 센서 영향 객체의 이미지 정보를 포함하는 센서를 관리하는 장치.
  16. 제15항에 있어서, 상기 제어부는,
    상기 센서의 감지 영역을 결정 시, 상기 센서 정보에 포함되는 상기 센서의 감지 범위 및 감지 각도에 기초하여 초기 감지 영역을 결정하고, 상기 결정된 초기 감지 영역과 상기 구성 이미지에 기초하여 최종 감지 영역을 결정함을 특징으로 하는 센서를 관리하는 장치.
  17. 제16항에 있어서, 상기 제어부는,
    상기 최종 감지 영역을 결정 시, 상기 센서 정보에 포함되는 거리별 영향도 함수와, 상기 센서 영향 객체 정보에 포함되는 감지 영향도 계수에 기초하여 결정되는 보정 값을 결정하고, 상기 결정된 초기 감지 영역에서 상기 결정된 보정 값만큼 보정함을 특징으로 하는 센서를 관리하는 장치.
  18. 제11항에 있어서, 상기 제어부는,
    상기 결정된 센서의 감지 영역에 기초하여, 상기 소정 공간에 센서를 추가할지 여부를 결정하고, 상기 센서의 추가를 결정한 경우, 상기 센서 정보 및 상기 센서의 감지 영역에 영향을 미치는 객체에 대한 정보인 센서 영향 객체 정보 중 적어도 하나에 기초하여, 상기 소정 공간 내에 센서가 추가될 위치를 결정함을 특징으로 하는 센서를 관리하는 장치.
  19. 제18항에 있어서, 상기 제어부는,
    상기 센서가 추가될 위치를 결정 시, 소정 방식에 의하여 상기 센서가 추가될 초기 위치를 결정하고, 상기 결정된 초기 위치에 대한 보정 값을 결정하고, 상기 결정된 초기 위치에서 상기 결정된 보정 값만큼 보정하여 상기 센서가 추가될 최종 위치를 결정함을 특징으로 하는 센서를 관리하는 장치.
  20. 제19항에 있어서, 상기 제어부는,
    상기 보정 값을 결정 시, 상기 센서 정보에 포함되는 거리별 영향도 함수(f(x))와, 상기 센서 영향 객체 정보에 포함되는 감지 영향도 계수(Y))에 기초하여 결정되는 보정 값을 계산하고, 상기 계산된 보정 값을 상기 보정 값으로 결정함을 특징으로 하는 센서를 관리하는 장치.


KR1020160002668A 2016-01-08 2016-01-08 센서 관리 방법 및 장치 KR102371409B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160002668A KR102371409B1 (ko) 2016-01-08 2016-01-08 센서 관리 방법 및 장치
US16/068,857 US11005941B2 (en) 2016-01-08 2017-01-09 Sensor management method and device
PCT/KR2017/000288 WO2017119800A1 (ko) 2016-01-08 2017-01-09 센서 관리 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160002668A KR102371409B1 (ko) 2016-01-08 2016-01-08 센서 관리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20170083332A true KR20170083332A (ko) 2017-07-18
KR102371409B1 KR102371409B1 (ko) 2022-03-07

Family

ID=59273887

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160002668A KR102371409B1 (ko) 2016-01-08 2016-01-08 센서 관리 방법 및 장치

Country Status (3)

Country Link
US (1) US11005941B2 (ko)
KR (1) KR102371409B1 (ko)
WO (1) WO2017119800A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106765874B (zh) * 2016-11-23 2021-05-14 北京小米移动软件有限公司 空气净化的方法及装置
FI128841B (en) * 2018-03-22 2021-01-15 Univ Helsinki Sensor calibration
JP6856583B2 (ja) * 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
DE102020109357A1 (de) * 2020-04-03 2021-10-07 Krohne Messtechnik Gmbh Verfahren zur Bewertung der Einbauposition eines Messgeräts in einer Anlage, Augmented-Reality-Gerät und Verfahren zum Einbau eines Messgeräts
US11539610B1 (en) * 2020-08-25 2022-12-27 Amazon Technologies, Inc. Presence detection based on link parameter data and network parameter data
US11483046B1 (en) 2020-08-25 2022-10-25 Amazon Technologies, Inc. Channel state information (CSI) packet transmission based on a dynamic transmission period
CN115100811B (zh) * 2022-06-22 2024-01-30 招商局重庆公路工程检测中心有限公司 一种公路隧道火焰探测器的探测空间调试方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7259778B2 (en) * 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
US8049666B2 (en) * 2007-12-17 2011-11-01 Electronics And Telecommunications Research Institute Regional positioning method and apparatus in wireless sensor network

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004151085A (ja) * 2002-09-27 2004-05-27 Canon Inc 情報処理方法及び情報処理装置
KR100789914B1 (ko) * 2006-09-29 2008-01-02 한국전자통신연구원 장애 요인이 적은 이웃 노드를 선택적으로 이용하는 위치 인식 방법 및 노드 장치
US20090009339A1 (en) * 2007-07-03 2009-01-08 3M Innovative Properties Company Apparatus and method for locally processing data on wireless network sensors
JP2010231615A (ja) * 2009-03-27 2010-10-14 Toshiba Tec Corp 情報処理装置
US8655881B2 (en) * 2010-09-16 2014-02-18 Alcatel Lucent Method and apparatus for automatically tagging content
US8830230B2 (en) 2011-01-31 2014-09-09 Honeywell International Inc. Sensor placement and analysis using a virtual environment
EP2823267A4 (en) * 2012-03-08 2015-09-30 Husqvarna Ab EQUIPMENT DATA SENSOR AND CAPTURE FOR FLEET MANAGEMENT
US9692827B2 (en) * 2012-03-28 2017-06-27 International Business Machines Corporation Systems and methods for provisioning sensing resources for mobile sensor networks
US11627186B2 (en) * 2012-05-17 2023-04-11 Digi International, Inc. Wireless network of environmental sensor units
KR20140142537A (ko) 2013-06-04 2014-12-12 한국전자통신연구원 건물 정보 모델링 기반의 센서 및 미터 자동 배치 장치
US10230326B2 (en) * 2015-03-24 2019-03-12 Carrier Corporation System and method for energy harvesting system planning and performance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7259778B2 (en) * 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
US8049666B2 (en) * 2007-12-17 2011-11-01 Electronics And Telecommunications Research Institute Regional positioning method and apparatus in wireless sensor network

Also Published As

Publication number Publication date
KR102371409B1 (ko) 2022-03-07
WO2017119800A1 (ko) 2017-07-13
US20190020721A1 (en) 2019-01-17
US11005941B2 (en) 2021-05-11

Similar Documents

Publication Publication Date Title
KR102371409B1 (ko) 센서 관리 방법 및 장치
CN111937051B (zh) 使用增强现实可视化的智能家居设备放置和安装
Li et al. A VLC smartphone camera based indoor positioning system
US10448486B2 (en) Apparatus and method for controlling lighting device in electronic device
US10671826B2 (en) Indoor location services using a distributed lighting network
KR102251309B1 (ko) 무선 통신 시스템에서 전자 장치 설치 장치 및 방법
US10455668B2 (en) Method of controlling lighting devices
EP2959267B1 (en) Mobile device positioning
US9728009B2 (en) Augmented reality based management of a representation of a smart environment
US20170231066A1 (en) Automatic mapping of devices in a distributed lighting network
US9749782B2 (en) Light fixture commissioning using encoded light signals
US9927288B2 (en) Real-time lighting control system and real-time lighting control method
US11333383B2 (en) Environment estimation device and environment estimation method
US11153714B2 (en) Beacon verification device
CN105744219A (zh) 用于操作安全系统的方法和设备
CN108240694B (zh) 用于控制空调的方法和设备
US20210149551A1 (en) IoT DEVICE CONTROL SYSTEM AND METHOD USING VIRTUAL REALITY AND AUGMENTED REALITY
Huang et al. Refining Wi-Fi based indoor localization with Li-Fi assisted model calibration in smart buildings
KR20150014618A (ko) 타겟 장치의 위치를 결정하기 위한 방법 및 그 전자 장치
KR20170016784A (ko) 프록시미티 측정을 이용한 사용자 경험을 제공하기 위한 장치 및 방법
CN110762815A (zh) 一种空调器控制方法、装置及系统
US20180255446A1 (en) Remote access to an accessory device
WO2016201357A1 (en) Using infrared images of a monitored scene to identify false alert regions
Moriya et al. Indoor localization based on distance-illuminance model and active control of lighting devices
US11302170B1 (en) Systems and methods for mapping hazards using wearable sensors

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant