KR20230120073A - 영상촬영장치 및 객체를 고려하여 인지영역을 생성하는 방법 및 장치 - Google Patents

영상촬영장치 및 객체를 고려하여 인지영역을 생성하는 방법 및 장치 Download PDF

Info

Publication number
KR20230120073A
KR20230120073A KR1020220080720A KR20220080720A KR20230120073A KR 20230120073 A KR20230120073 A KR 20230120073A KR 1020220080720 A KR1020220080720 A KR 1020220080720A KR 20220080720 A KR20220080720 A KR 20220080720A KR 20230120073 A KR20230120073 A KR 20230120073A
Authority
KR
South Korea
Prior art keywords
information
area
recognition
ppm
computing device
Prior art date
Application number
KR1020220080720A
Other languages
English (en)
Inventor
정경전
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Publication of KR20230120073A publication Critical patent/KR20230120073A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)

Abstract

본 명세서의 실시예들은 영상촬영장치의 영역정보 및 객체의 인지정보를 표시하기 위한 서비스정보를 생성하는 방법 및 장치에 관한 것이다.
본 명세서의 실시예에 따른 컴퓨팅 장치의 동작 방법은 영상촬영장치의 성능정보를 획득하는 단계; 상기 영상촬영장치의 설정정보 및 객체의 객체정보를 획득하는 단계; 상기 설정정보 및 상기 성능정보에 기초하여, 상기 영상촬영장치의 영역정보를 결정하는 단계; 상기 설정정보, 상기 성능정보 및 상기 객체정보에 기초하여, 상기 객체의 인지정보를 결정하는 단계; 상기 영역정보 및 상기 인지정보를 포함하는 서비스정보를 생성하는 단계를 포함하는 것을 특징으로 한다.

Description

영상촬영장치 및 객체를 고려하여 인지영역을 생성하는 방법 및 장치{Method and apparatus for generating cognitive regions in consideration of video shooting devices and objects }
본 명세서의 실시예들은 영상촬영장치의 영역정보 및 객체의 인지정보를 표시하기 위한 서비스정보를 생성하는 방법 및 장치에 관한 것이다.
오늘날 영상촬영장치는 사용용도, 제조사, 종류 등에 따라 매우 다양하다. 이처럼 다양한 영상촬영장치의 성능을 비교하고 평가하기 위해 렌즈의 배율, 선명도, 노이즈, 해상도, 색특성 등과 같이 다양한 지표들이 존재한다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서의 실시예는 상술한 문제점을 해결하기 위하여 제안된 것으로 영상촬영장치의 영역정보 및 객체의 인지정보를 표시하기 위한 서비스정보를 생성하는 방법 및 장치를 제공한다.
상술한 과제를 달성하기 위한 본 발명의 일실시예에 따른 컴퓨팅 장치의 동작 방법은, 영상촬영장치의 성능정보를 획득하는 단계; 상기 영상촬영장치의 설정정보 및 객체의 객체정보를 획득하는 단계; 상기 설정정보 및 상기 성능정보에 기초하여, 상기 영상촬영장치의 영역정보를 결정하는 단계; 상기 설정정보, 상기 성능정보 및 상기 객체정보에 기초하여, 상기 객체의 인지정보를 결정하는 단계; 상기 영역정보 및 상기 인지정보를 포함하는 서비스정보를 생성하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 영역정보를 결정하는 단계는, 상기 성능정보 및 상기 설정정보에 기초하여, 화각 및 작동거리에 따른 PPM(Pixels Per Meter)을 산출하는 단계; 및 상기 작동거리에 따른 PPM에 기초하여, 상기 작동거리에 따른 DORI(Detection, Observation, Recognition, Identification) 영역정보를 결정하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 인지정보를 결정하는 단계는, 상기 설정정보 및 상기 객체정보에 기초하여, 객체거리를 산출하는 단계; 및 상기 작동거리에 따른 PPM 및 상기 객체거리에 기초하여, 상기 객체에 대응하는 PPM 및 DORI를 산출하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 설정정보 및 상기 객체정보를 획득하는 단계는, 사용자 입력에 기초하여, 상기 영상촬영장치에 대응하는 초점거리, 설치높이 및 틸트각 중 적어도 하나를 포함하는 상기 설정정보를 획득하는 단계; 사용자 입력에 기초하여, 상기 객체에 대응하는 수평거리 및 높이 중 적어도 하나를 포함하는 객체 정보를 획득하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 서비스정보를 생성하는 단계는, 상기 영역정보에 기초하여, 제1 사용자 인터페이스에 제1 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하는 단계; 상기 영역정보에 기초하여, 제2 사용자 인터페이스에 상기 제1 뷰와 상이한 제2 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하는 단계를 포함하는 것을 특징으로 한다.
상술한 과제를 달성하기 위한 본 발명의 일실시예에 따른 컴퓨팅 장치는, 영상촬영장치의 성능정보를 획득하고, 상기 영상촬영장치의 설정정보 및 객체의 객체정보를 획득하며, 상기 설정정보 및 상기 성능정보에 기초하여, 상기 영상촬영장치의 영역정보를 결정하고, 상기 설정정보, 상기 성능정보 및 상기 객체정보에 기초하여, 상기 객체의 인지정보를 결정하며, 상기 영역정보 및 상기 인지정보를 포함하는 서비스정보를 생성하는 프로세서를 포함하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 프로세서는, 상기 성능정보 및 상기 설정정보에 기초하여, 화각 및 작동거리에 따른 PPM(Pixels Per Meter)을 산출하고, 상기 작동거리에 따른 PPM에 기초하여, 상기 작동거리에 따른 DORI(Detection, Observation, Recognition, Identification) 영역정보를 결정하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 프로세서는, 상기 설정정보 및 상기 객체정보에 기초하여, 객체거리를 산출하고, 상기 작동거리에 따른 PPM 및 상기 객체거리에 기초하여, 상기 객체에 대응하는 PPM 및 DORI를 산출하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 프로세서는, 사용자 입력에 기초하여, 상기 영상촬영장치에 대응하는 초점거리, 설치높이 및 틸트각 중 적어도 하나를 포함하는 상기 설정정보를 획득하고, 사용자 입력에 기초하여, 상기 객체에 대응하는 수평거리 및 높이 중 적어도 하나를 포함하는 객체 정보를 획득하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 상기 프로세서는, 상기 영역정보에 기초하여, 제1 사용자 인터페이스에 제1 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하고 상기 영역정보에 기초하여, 상기 제1 뷰와 상이한 제2 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하는 것을 특징으로 한다.
본 발명의 일실시예에 따르면 영상촬영장치의 영역정보 및 객체의 인지정보를 표시하기 위한 서비스정보를 생성할 수 있다.
실시예의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일실시예에 따른 시뮬레이션 뷰 시스템을 도시하는 도면이다.
도 2는 본 발명의 일실시예에 따른 컴퓨팅 장치 구성의 블록도이다.
도 3은 본 발명의 일실시예에 따른 단말의 디스플레이 화면에 표시된 UI(user interface)를 도시하는 도면이다.
도 4a 및 도 4b는 본 발명의 일실시예에 따른 영상촬영장치의 설정정보 및 객체정보를 획득하는 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따른 설정정보 및 객체정보를 획득하고 제1 사용자 인터페이스에 서비스정보를 표시 하는 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른 제2 사용자 인터페이스 서비스정보를 표시 하는 동작을 설명하기 위한 도면이다.
도 7a 내지 도 7d는 본 발명의 다른 실시예에 따른 객체정보를 획득하는 동작을 설명하기 위한 도면이다.
도 8은 본 발명의 일실시예에 따른 컴퓨팅 장치의 동작을 설명하기 위한 순서도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어에 의해 수행되는 특정 기능을 수행하는 구성요소를 의미한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 의해 수행되는 것으로 한정되지 않는다. '~부'는 어드레싱할 수 있는 저장 매체에 저장된 데이터 형태로 존재할 수도 있고, 하나 또는 그 이상의 프로세서들이 특정 기능을 실행하도록 구성될 수도 있다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
본 발명에 따른 영상촬영장치는, 이미지 센서(image sensor)를 사용하고 스마트 폰, PC, 감시용 카메라, 그리고 의료용 카메라 등과 같은 다양한 유형의 전자 장치에 포함되거나, 하나의 독립된 전자 장치로 사용될 수 있다.
본 발명의 실시예에 따른 '영상(image)'은 정지 영상이거나, 복수의 연속된 프레임들로 구성된 동영상을 포함할 수 있다.
본 발명에 따른 PPM(Pixels Per Meter)이란 주어진 거리에서 제공하는 이미지 정보의 양을 정의하는 데 사용되는 측정값이다. PPM은 영상촬영장치가 획득하는 이미지에서의 객체의 각 미터당 픽셀의 수를 의미할 수 있다.
본 발명에 따른 화각(FOV, Field Of View)이란 렌즈를 통해서 영상촬영장치가 이미지를 담을 수 있는 각을 말한다.
본 발명에 따른 DORI(Detection, Observation, Recognition, Identification)란, 영상촬영장치가 객체를 볼 수 있는 거리에 대한 표준을 PPM 단위로 결정한 것을 의미한다.
구체적으로 감지(Detection) 영역이란 감지 수준을 통해 사람이나 차량이 있는지 여부를 확인이 가능한 영역으로 25PPM 이상의 영역을 의미한다. 관찰(Observation) 영역이란 사건 주변의 활동을 볼 수 있도록 하면서 객체의 특징적 사항을 확인할 수 있는 영역으로 62PPM 이상의 영역을 의미한다. 인식(Recognition) 영역이란 관찰되는 객체가 이전에 본 객체와 동일한지 여부를 확실하게 판단할 수 있는 영역으로 125PPM 이상의 영역을 의미한다. 식별(Identification) 영역은 사람의 신원을 확인할 수 있을 정도의 영역으로 250PPM 이상의 영역을 의미한다.
DORI 및 PPM은 영상촬영장치로부터 얻을 수 있는 이미지의 품질을 비교하기 위한 지표이다. 이러한 DORI 및 PPM이 높을수록 높은 이미지의 품질을 획득할 수 있으며, 사용자가 이미지로부터 세부 사항을 확인할 수 있다. 하지만 DORI 및 PPM의 경우 촬영 대상인 객체와의 관계를 통해 결정되며, 객체의 크기에 따라 영상촬영장치가 획득하는 이미지의 품질이 달라지는 경우가 있다. 본 발명의 실시예는 PPM과 DORI를 효과적으로 사용자에게 표현할 수 있는 시뮬레이션 방법 및 장치를 제공할 수 있다.
도 1은 본 발명의 일실시예에 따른 시뮬레이션 뷰 시스템(100)을 도시한다. 시뮬레이션 뷰 시스템(100)은 영상촬영장치에 대응되는 영역정보 및 객체에 관한 이미지가 네트워크(103)를 통해 컴퓨팅 장치(101)로부터 단말(105)에 전달되고, 단말(105)이 디스플레이를 이용하여 이미지를 표시하는 시스템을 지시한다. 도 1을 참고하면, 시뮬레이션 뷰 시스템(100)은 네트워크(103), 컴퓨팅 장치(101), 및 단말(105)을 포함한다. 도 1은 본 발명의 설명을 위한 일 예로서, 본 개시의 일실시예에 따른 시뮬레이션 뷰 시스템에서 네트워크(103)에 연결되는 장치의 개수는 한정되지 않는다.
일실시예에 따른 영상촬영장치는 시뮬레이션 뷰 시스템(100)에 구성되지 않고, 영상촬영장치에 관한 설정정보, 성능정보가 컴퓨팅 장치(101)에 데이터 형태로서 저장되어 있을 수도 있다.
네트워크(103)는 유선 또는 무선으로 복수의 장치들 사이의 통신을 연결되는 네트워크를 지시한다. 본 개시의 일실시예에 따르면, 네트워크(103)는 LAN(local area networks), WAN(wide area networks), MAN(metropolitan area networks), ISDN(integrated service digital networks) 등의 유선 네트워크, 무선 LAN, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 포함할 수 있다. 네트워크(103)는 외부 네트워크와 연결되는 접점이나 노드가 없는 폐쇄된 망 일 수 있다. 즉, 네트워크(103)는 미리 결정 된 구성요소들만을 연결하는 통신 선로일 수 있다. 본 개시의 일실시예에 따르면, 네트워크(103)는 컴퓨팅 장치(101), 및 단말(105)을 연결하는 통신 선로를 포함할 수 있다.
컴퓨팅 장치(101)는 단말(105)과 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 본 개시의 일실시예에 따르면, 컴퓨팅 장치(101)는 단말(105)에 이미지 또는 서비스정보를 제공할 수 있다. 단말(105)은 적어도 하나의 프로그램의 제어에 따라 컴퓨팅 장치(101)에 접속하고, 컴퓨팅 장치(101)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 이러한 컴퓨팅 장치(101)는 도 2에의해 상세하게 설명된다. 이러한 서비스정보는 영상촬영장치의 성능을 고려하여, 영상촬영장치가 촬영하는 영역에 관한 영역정보 및 객체 정보에 기초한 인지정보를 시뮬레이션 하기 위한 정보일 수 있다.
단말(105)은 네트워크(103)를 통해 정보를 획득하고, 획득한 정보를 사용자에게 제공하는 전자 장치를 지시한다. 단말(105)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말을 포함한다. 본 개시의 일실시예에 따르면, 단말(105)은 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(personal digital assistants), PMP(portable multimedia player), 태블릿 PC를 포함할 수 있다. 단말(105)은 무선 또는 유선 통신 방식을 이용하여 네트워크(103)를 통해 컴퓨팅 장치(101) 와 통신할 수 있다.
본 개시의 일실시예에 따르면, 단말(105)은 사용자로부터, 터치(touch), 탭(tap), 드래그(drag), 및 클릭(click)과 같은 사용자 입력을 통해 영상촬영장치의 설정정보 및 객체의 객체정보를 수신하고, 수신된 설정정보 및 객체정보를 컴퓨팅 장치(101)로 전송할 수 있다. 단말(105)은 디스플레이를 통해 시뮬레이션을 위한 UI(user interface) 화면을 표시하는 기능을 수행할 수 있다. 단말(105)은 네트워크(103)를 통해 컴퓨팅 장치(101)로부터 이미지를 획득하거나, 영역정보 및 인지정보를 포함하는 서비스정보를 수신할 수 있다. 단말(105)은 적어도 하나의 디스플레이를 통해 서비스정보가 포함된 UI 화면을 표시할 수 있다. 여기서, 단말(105)은 사용자 입력을 수신하고, 사용자 입력에 대응하여 UI 화면을 변경할 수도 있다.
도 2는 본 발명의 일실시예에 따른 컴퓨팅 장치 구성의 블록도이고, 시뮬레이션 뷰 시스템(100)에서의 컴퓨팅 장치(101)의 구성(200)을 도시한다.
컴퓨팅 장치(101)는 메모리(210), 프로세서(220) 및 통신부(230)에 의해 구성되는 것으로 도시하였으나 반드시 이에 한정되는 것이 아니다. 메모리(210) 및 프로세서(220) 및 통신부(230)는 각각 물리적으로 독립한 하나의 구성부로서 존재할 수 있다.
메모리(210)는 본 발명의 일실시예에 따른 컴퓨팅 장치(101)가 동작하기 위한 데이터 및 정보를 저장할 수 있다. 예컨대 메모리(210)는 영상촬영장치의 성능정보, 영상촬영장치의 설정정보 및 객체의 객체정보를 저장할 수 있다. 이러한 메모리(210)는 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette) 중 하나일 수 있다.
통신부(230)는 네트워크를 통해 신호를 송수신하기 위한 기능들을 수행한다. 통신부(230)의 전부 또는 일부는 송신부, 수신부, 송수신부로 지칭될 수 있다. 통신부(230)는 통신망을 통해 컴퓨팅 장치(101)와 적어도 하나의 다른 노드가 서로 통신하기 위한 기능을 제공할 수 있다. 본 개시의 일실시예에 따르면, 컴퓨팅 장치(101)의 프로세서(220)가 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 요청 신호를 생성한 경우, 요청 신호는 통신부(230)의 제어에 따라 통신망을 통해 적어도 하나의 다른 노드로 전달될 수 있다. 역으로, 적어도 하나의 다른 노드의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 콘텐츠, 파일 등이 통신부(230)를 통해 컴퓨팅 장치(101)로 수신될 수 있다. 예컨대 단말(105)로부터 터치(touch), 탭(tap), 드래그(drag), 및 클릭(click)과 같은 사용자 입력에 대응하는 데이터를 수신할 수 있고, 사용자 입력에 대응하여 서비스정보 또는 UI 데이터를 전송할 수 있다.
프로세서(220)는 본 발명의 일실시예에 따른 컴퓨팅 장치(101)의 전반적인 동작을 제어할 수 있다. 또한 프로세서(220)는 본 발명의 도 6에서 도시된 동작을 수행하도록 컴퓨팅 장치(101)를 제어할 수 있다.
일실시예에 따른 프로세서(220)는 영상촬영장치의 성능정보를 획득할 수 있다. 이러한 영상촬영장치의 성능정보는 영상촬영장치의 카메라 성능에 관한 정보로서, 카메라 해상도, 이미지 센서 사이즈 및 초점거리 범위에 관한 정보를 포함할 수 있다.
일실시예에 따른 프로세서(220)는 영상촬영장치의 설정정보 및 객체의 객체정보를 획득할 수 있다.
이러한 영상촬영장치의 설정정보는 영상촬영장치에 대응하는 초점거리, 설치높이 및 틸트각 중 적어도 하나를 포함할 수 있다. 초점거리는 성능정보에 포함된 초점거리 범위내에서 설정된 초점거리를 의미할 수 있으며, 설치높이는 영상촬영장치가 위치하고 있는 높이를 의미할 수 있다. 틸트각은 영상촬영장치가 영상을 촬영하는 방향과 지표면이 이루는 각을 의미할 수 있다.
프로세서(220)는 사용자 입력에 의해 영상촬영장치의 설정정보를 획득할 수 있다. 예컨대 단말(105)은 포인터를 이용한 터치(touch), 탭(tap), 드래그(drag), 및 클릭(click)과 같은 입력 중 적어도 하나를 통해 영상촬영장치의 설정정보를 입력받고, 컴퓨팅 장치(101)로 전송할 수 있다. 프로세서(220)는 설정정보를 획득할 수 있다. 영상촬영장치의 설정정보를 입력받는 동작은 도 4a, 도 4b 및 도 7에의해 설명될 수 있다.
객체정보는 영상촬영장치가 촬영하는 객체의 정보로서 객체와 영상촬영장치간의 수평거리 및 객체의 높이 중 적어도 하나를 포함할 수 있다. 프로세서(220)는 사용자 입력에 의해 영상촬영장치의 객체정보를 획득할 수 있다. 예컨대 단말(105)은 포인터를 이용한 터치(touch), 탭(tap), 드래그(drag), 및 클릭(click)과 같은 입력 중 적어도 하나를 통해 영상촬영장치의 객체정보를 입력받고, 컴퓨팅 장치(101)로 전송할 수 있다. 프로세서(220)는 객체정보를 획득할 수 있다. 영상촬영장치의 객체정보를 입력받는 동작은 도 4a, 도 4b 및 도 7에의해 설명될 수 있다.
일실시예에 따른 프로세서(220)는 설정정보 및 성능정보에 기초하여, 영상촬영장치의 영역정보를 결정할 수 있다.
예컨대 프로세서(220)는 성능정보 및 설정정보에 기초하여, 화각 및 작동거리에 따른 PPM을 산출할 수 있다. 프로세서(220)는 성능정보에 포함된 센서 사이즈 및 설정정보에 포함된 초점거리에 기초하여, 영상촬영장치의 작동거리에 따른 화각을 산출할 수 있다.이러한 화각은 수학식 1에 의해 나타낼 수 있다.
[수학식 1]
FOV는 화각, SensorSize는 센서의 가로(H) 또는 세로(V) 사이즈, f는 초점거리, WD는 작동거리이다.
또한 프로세서(220)는 성능정보 및 화각에 기초하여 작동거리에 따른 PPM을 산출할 수 있다.
이러한 PPM은 수학식 2에 의해 나타낼 수 있다.
[수학식 2]
FOV는 화각, ImageSize는 카메라 해상도의 너비(Width) 또는 높이(Hight), SensorSize는 센서의 가로(H) 또는 세로(V) 사이즈, f는 초점거리, WD는 작동거리이다.
즉 프로세서(220)는 카메라 해상도, 센서 사이즈 및 초점거리에 기초하여 작동거리에 따른 PPM을 산출할 수 있다.
일실시예에 따른 프로세서(220)는 작동거리에 따른 PPM에 기초하여, 작동거리에 따른 DORI(Detection, Observation, Recognition, Identification) 영역정보를 결정할 수 있다.
먼저 프로세서(220)는 감지(Detection) 영역인 25PPM 이상에 대한 제1 작동거리, 관찰(Observation) 영역인 62PPM 이상에 대한 제2 작동거리, 인식(Recognition) 영역인 125PPM 이상에 대한 제3 작동거리, 식별(Identification) 영역인 250PPM 이상에 대한 제4 작동거리를 산출할 수 있다. 프로세서(220)는 위와 같은 제1 작동거리, 제2 작동거리, 제3 작동거리 및 제 4 작동거리를 산출하고 영상촬영장치의 작동 거리에 따른 DORI 영역정보를 결정할 수 있다.
일실시예에 따른 프로세서(220)는 설정정보, 성능정보 및 객체정보에 기초하여, 객체의 인지정보를 결정할 수 있다. 구체적으로 프로세서(220)는 설정정보 및 객체정보에 기초하여, 객체거리를 산출하고, 작동거리에 따른 PPM 및 객체거리에 기초하여, 객체에 대응하는 PPM 및 DORI를 산출할 수 있다.
예컨대 프로세서(220)는 설정정보에 포함된 영상촬영장치의 설치높이, 객체의 높이 및 객체와 영상촬영장치간 수평거리를 이용하여, 영상촬영장치와 객체의 최상단에서의 직선거리인 객체거리를 산출할 수 있다.
또한 프로세서(220)는 작동거리에 따른 PPM 및 객체거리에 기초하여, 객체에 대응하는 PPM 및 DORI를 산출할 수 있다.
객체에 대응하는 PPM은 수학식 3에 의해 나타낼 수 있다.
[수학식 3]
PPMobject 은 객체에 대한 PPM, FOV는 화각, ImageSize는 카메라 해상도의 너비(Width) 또는 높이(Hight), SensorSize는 센서의 가로(H) 또는 세로(V) 사이즈, f는 초점거리, D는 객체거리이다.
프로세서(220)는 객체에 대응하는 PPM 값을 확인하고, PPM 값에 대응하는 DORI 값을 산출할 수 있다.
일실시예에 따른 프로세서(220)는 영역정보를 포함하는 서비스정보를 생성할 수 있다.
예컨대 프로세서(220)는 영역정보에 기초하여, 제1 사용자 인터페이스에 사이드 뷰(Side View) 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 생성할 수 있다. 프로세서(220)는 화각 및 작동거리에 따른 DORI에 기초하여, 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 제1 사용자 인터페이스에 표시하기 위한 서비스정보를 생성할 수 있다.
또한 프로세서(220)는 객체정보 및 영역정보에 기초하여, 제2 사용자 인터페이스에 탑 뷰(Top View)형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 생성할 수 있다. 구체적으로 객체정보는 객체의 높이를 포함할 수 있으며, 프로세서(220)는 객체의 최상단을 기준으로 산출된 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 제2 사용자 인터페이스에 표시하기 위한 서비스정보를 생성할 수 있다.
이러한 프로세서(220)는 인지정보를 포함하는 서비스정보를 생성할 수 있다. 프로세서(220)는 객체에 대응하는 PPM 값 및 객체의 DORI 값을 표시하기 위한 서비스정보를 생성할 수 있다.
이러한 프로세서(220)는 단일 CPU 또는 복수의 CPU(또는 DSP, SoC)로 구현될 수 있다. 프로세서(220)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다.
도 3은 일실시예에 따른 단말(105)의 디스플레이 화면에 표시된 UI(user interface)이다. 컴퓨팅 장치(101)는 단말(105)의 디스플레이 화면에 영상촬영장치의 성능정보, 설정정보 및 객체정보 획득을 위한 사용자 인터페이스(UI)(300)를 제공할 수 있다. 디스플레이 화면에 제공된 사용자 인터페이스(UI)(300)는 영상촬영장치의 설정정보 및 객체정보를 입력하는 제1 영역(310) 및 객체의 PPM 값 및 DORI 값을 포함하는 서비스정보를 표시하는 제2 영역(320)을 포함할 수 있다.
단말(105)은 입력 받은 영상촬영장치의 설정정보 및 객체정보에 대응하여, 제1 영역(310) 및 제2 영역(320)을 실시간으로 변경할 수 있다. 이러한 단말(105)은 성능정보, 설정정보 및 객체정보 중 적어도 하나가 변경되면, 제1 영역(310) 및 제2 영역(320)을 변경할 수 있다. 단말(105)은 입력 받은 영상촬영장치의 설정정보 및 객체정보를 컴퓨팅 장치(101)로 전송할 수 있다. 또한 단말(105)은 컴퓨팅 장치(101)로부터 수신한 서비스 정보에 대응하여 제2 영역(320)을 실시간으로 변경할 수 있다.
도 4a 및 도 4b는 본 발명의 일실시예에 따른 영상촬영장치의 설정정보 및 객체정보를 획득하는 동작을 설명하기 위한 도면이다. 도 4a 및 도 4b는 단말(105)의 디스플레이 화면에 표시된 제1영역의 사용자 인터페이스를 이용한 사용자 입력의 예들이다. 도 4a는 제1영역의 사용자 인터페이스를 이용하여 제1 시점에서 영상촬영장치의 설정정보를 사용자로부터 입력을 시작하는 동작을 나타내는 도면이고, 도 4b는 제2 시점에서 영상촬영장치의 설정정보를 사용자로부터 입력을 끝내는 동작을 나타내는 도면이다.
제1 포인터(401)는 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 사용자는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 단말(105)의 입력 인터페이스를 조작하여 설정정보 및 객체정보를 입력할 수 있다.
구체적으로 단말(105)은 영상촬영장치의 성능정보로 획득된 초점거리 범위한도에서, 사용자의 제1 포인터(401)를 이용한 드래그, 스크롤링, 슬라이딩에 의한 입력 중 적어도 하나를 통해 영상촬영장치의 초점거리를 입력 받고, 컴퓨팅 장치(101)로 전송할 수 있다.
또한 단말(105)은 사용자의 제1 포인터(401)를 이용한 드래그, 스크롤링, 슬라이딩에 의한 입력 중 적어도 하나를 통해 영상촬영장치가 촬영하고자 하는 객체의 높이, 영상촬영 장치의 설치높이, 틸트각을 입력 받고, 컴퓨팅 장치(101)로 전송할 수 있다.
도 5는 본 발명의 일실시예에 따른 설정정보 및 객체정보를 획득하고 제1 사용자 인터페이스에 서비스정보를 표시 하는 동작을 설명하기 위한 도면이다. 서비스정보는 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역 정보를 포함하는 영역정보 및 객체의 PPM 값 및 DORI 값을 포함하는 인지정보를 포함할 수 있다.
도 5에 도시된 것과 같이, 사용자는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 단말(105)의 디스플레이 화면에 표시된 제2영역의 입력 인터페이스를 조작하여 설정정보 및 객체정보를 입력할 수 있다. 예컨대 단말(105)은 제2 포인터(501)를 이용하여 드래그, 스크롤링, 슬라이딩에 의한 입력 중 적어도 하나를 통해 객체(10)와 영상촬영장치 사이의 수평거리를 입력 받을 수 있다.
또한 전술한 바와 같이 단말(105)은 제1 포인터(401)를 이용한 초점거리 및 틸트각을 입력 받을 수 있을 뿐 아니라, 제3 포인터(503)를 이용하여서도 카메라의 초점거리 및 틸트각을 입력 받을 수 있다. 단말(105)은 제3 포인터(503)를 이용하여 드래그, 스크롤링, 슬라이딩에 의한 입력 중 적어도 하나를 통해 초점거리 및 틸트각을 입력 받을 수 있다.
단말(105)은 컴퓨팅 장치(101)로부터 서비스정보를 수신하고, 서비스정보를 제1 사용자 인터페이스(410)에 표시할 수 있다. 구체적으로 단말(105)은 사이드 뷰(Side View) 형식의 탐지 영역(517), 관찰 영역(515), 인식 영역(513) 및 식별 영역(511)을 제1 사용자 인터페이스(510)에 표시할 수 있다. 탐지 영역(517), 관찰 영역(515), 인식 영역(513) 및 식별 영역(511)은 색상으로 구별되거나, 명암으로 구별될 수 있다.
제1 사용자 인터페이스(510)는 하측 또는 상측에 가로 방향으로 영상촬영장치(예: 카메라)로부터의 거리를 제공하고, 좌측 또는 우측에 세로 방향으로 지상으로부터의 높이를 제공할 수 있다. 제1 포인터(401)는 제1 사용자 인터페이스(510)의 하측에 제공되고, 좌우로 이동될 수 있다. 제3 포인터(503)는 제1 사용자 인터페이스(510) 내에 제공되고, 상하좌우 임의의 방향으로 이동될 수 있다.
단말(105)은 컴퓨팅 장치(101)로부터 서비스정보를 수신하고 제1 보조 인터페이스(520)에 객체정보 및 영역정보에 기초하여, 탑 뷰(Top View)형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시할 수 있다. 구체적으로 객체정보는 객체(10)의 높이를 포함할 수 있고, 단말(105)은 객체(10)의 최상단을 기준으로 산출된 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 탑 뷰(Top View)형식으로 제1 보조 인터페이스(520)에 표시할 수 있다.
단말(105)은 컴퓨팅 장치(101)로부터 서비스정보를 수신하고 제2 보조 인터페이스(530)에 객체(10)에 대응하는 PPM 값 및 객체(10)의 DORI 값을 표시할 수 있다.
도 5는 제1 사용자 인터페이스(510)에 사이드 뷰(Side View)를 메인 뷰로 제공하고 제1 보조 인터페이스(520)에 탑 뷰(Top View)를 보조 뷰로 제공하는 예이다. 본 발명의 실시예는 이에 한정되지 않는다. 사용자 설정에 따라 메인 뷰와 보조 뷰는 변경될 수 있다.
도6은 본 발명의 일실시예에 따른 제2 사용자 인터페이스 서비스정보를 표시 하는 동작을 설명하기 위한 도면이다.
도 6에 도시된 것과 같이, 단말(105)은 컴퓨팅 장치(101)로부터 서비스정보를 수신하고, 서비스정보를 제2 사용자 인터페이스(610)에 표시할 수 있다. 구체적으로 단말(105)은 객체정보 및 영역정보에 기초하여, 제2 사용자 인터페이스(610)에 탑 뷰(Top View)형식의 탐지 영역(515), 관찰 영역(513), 인식 영역(511) 및 식별 영역(미도시)을 표시할 수 있다. 구체적으로 객체정보는 객체(10)의 높이를 포함할 수 있고, 단말(105)은 객체(10)의 최상단을 기준으로 산출된 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 제2 사용자 인터페이스(610)에 표시할 수 있다.
단말(105)은 컴퓨팅 장치(101)로부터 서비스정보를 수신하고, 제1 보조 인터페이스(620)에 영역정보에 기초하여 사이드 뷰(Side View) 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시할 수 있다. 단말(105)은 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 사이드 뷰(Side View) 형식으로 제1 보조 인터페이스(620)에 표시할 수 있다.
단말(105)은 컴퓨팅 장치(101)로부터 서비스정보를 수신하고 제2 보조 인터페이스(530)에 객체(10)에 대응하는 PPM 값 및 객체(10)의 DORI 값을 표시할 수 있다.
도 5 및 도 6에서와 같이 컴퓨팅 장치(101)는 영역정보에 기초하여, 제1 사용자 인터페이스에 제1 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하고 영역정보에 기초하여, 제1 뷰와 상이한 제2 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성할 수 있다. 단말(105)은 컴퓨팅 장치(101)로부터 서비스정보를 수신하고, 제1 뷰 및 제2 뷰를 디스플레이에 표시할 수 있다.
도 7a 내지 도 7d는 본 발명의 다른 실시예에 따른 객체정보를 획득하는 동작을 설명하기 위한 도면이다.
도 7a 및 도 7b를 참고하면, 단말(105)은 사이드 뷰 형식의 제1 사용자 인터페이스에 제4 포인터(701)를 이용하여 드래그, 스크롤링, 슬라이딩에 의한 입력 중 적어도 하나를 통해 객체(10)의 인지정보 기준점을 입력 받을 수 있다. 또한 단말(105)은 컴퓨팅 장치(101)로 인지정보 기준점을 전송할 수 있다. 인지정보 기준점은 객체(10)에 오버랩되거나 객체(10) 주변에 표시되는 가이드라인 상에 제공되고, 제4 포인터(701)에 의해 상하 이동할 수 있다.
컴퓨팅 장치(101)는 인지정보 기준점을 기준으로 객체거리를 산출하고, 인지정보 기준점을 기준으로 산출된 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 제1 사용자 인터페이스에 표시하기 위한 서비스정보를 생성할 수 있다. 이러한 인지정보 기준점의 경우, 객체정보의 높이를 대체하여 화각 및 작동거리에 따른 DORI 영역을 산출할 수 있다.
즉 객체거리가 동일하더라도 인지정보 기준점의 높이에 따라 ppm 또는 DORI 영역이 달라질 수 있다. 예컨대 도 7a 및 도 7b에 도시된 것과 같이 객체거리는 모두 14.11m 이나 인지정보 기준점이 도 7a 에서 0m 도 7b 에서 1.5 미터이므로 ppm 값이 달라지게 된다.
도 7c 및 도 7d를 참고하면, 단말(105)은 탑 뷰(Top View) 형식의 제2 사용자 인터페이스에 제4 포인터(701)를 이용하여 드래그, 스크롤링, 슬라이딩에 의한 입력 중 적어도 하나를 통해 객체(10)의 인지정보 기준점을 입력 받을 수 있다. 또한 단말(105)은 컴퓨팅 장치(101)로 인지정보 기준점을 전송할 수 있다. 인지정보 기준점은 객체(10)에 오버랩되거나 객체(10) 주변에 표시되는 가이드라인 상에 제공되고, 제4 포인터(701)에 의해 상하 이동할 수 있다.
컴퓨팅 장치(101)는 인지정보 기준점을 기준으로 객체거리를 산출하고, 인지정보 기준점을 기준으로 산출된 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 제2 사용자 인터페이스에 표시하기 위한 서비스정보를 생성할 수 있다. 이러한 인지정보 기준점의 경우, 객체정보의 높이를 대체하여 화각 및 작동거리에 따른 DORI 영역을 산출할 수 있다.
도 8은 본 발명의 일실시예에 따른 컴퓨팅 장치의 동작을 설명하기 위한 순서도이다.
도 8을 참고하면 컴퓨팅 장치는 S801 단계에서, 영상촬영장치의 성능정보를 획득할 수 있다. 이러한 영상촬영장치의 성능정보는 영상촬영장치의 카메라 성능에 관한 정보로서, 카메라 해상도, 이미지 센서 사이즈 및 초점거리 범위에 관한 정보를 포함할 수 있다.
컴퓨팅 장치는 S803 단계에서, 영상촬영장치의 설정정보 및 객체의 객체정보를 획득할 수 있다.
이러한 영상촬영장치의 설정정보는 영상촬영장치에 대응하는 초점거리, 설치높이 및 틸트각 중 적어도 하나를 포함할 수 있다. 초점거리는 성능정보에 포함된 초점거리 범위내에서 설정된 초점거리를 의미할 수 있으며, 설치높이는 영상촬영장치가 위치하고 있는 높이를 의미할 수 있다. 틸트각은 영상촬영장치가 영상을 촬영하는 방향과 지표면이 이루는 각을 의미할 수 있다.
객체정보는 영상촬영장치가 촬영하는 객체의 정보로서 객체에 대응하는 객체와 영상촬영장치간의 수평거리 및 객체의 높이 중 적어도 하나를 포함할 수 있다.
컴퓨팅 장치는 S805 단계에서, 설정정보 및 성능정보에 기초하여, 영상촬영장치의 영역정보를 결정할 수 있다.
컴퓨팅 장치는 성능정보 및 설정정보에 기초하여, 영상촬영장치의 화각 및 작동거리에 따른 PPM을 산출할 수 있다. 컴퓨팅 장치는 영상촬영장치의 작동거리에 따른 PPM에 기초하여, 작동거리에 따른 DORI 영역정보를 결정할 수 있다.
컴퓨팅 장치는 S707 단계에서, 설정정보, 성능정보 및 객체정보에 기초하여, 객체의 인지정보를 결정할 수 있다.
컴퓨팅 장치는 설정정보 및 객체정보에 기초하여, 객체거리를 산출하고, 작동거리에 따른 PPM 및 객체거리에 기초하여, 객체에 대응하는 PPM 및 DORI를 산출할 수 있다. 예컨대 컴퓨팅 장치는 설정정보에 포함된 영상촬영장치의 설치높이, 객체의 높이 및 객체와 영상촬영장치간 수평거리를 이용하여, 영상촬영장치와 객체의 최상단에서의 직선거리인 객체거리를 산출할 수 있다.
컴퓨팅 장치는 S809 단계에서, 영역정보 및 인지정보를 포함하는 서비스정보를 생성할 수 있다.
컴퓨팅 장치는 영역정보에 기초하여, 제1 사용자 인터페이스에 사이드 뷰(Side View) 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 생성할 수 있다. 컴퓨팅 장치는 화각 및 작동거리에 따른 DORI에 기초하여, 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 제1 사용자 인터페이스에 표시하기 위한 서비스정보를 생성할 수 있다.
또한 컴퓨팅 장치는 객체정보 및 영역정보에 기초하여, 제2 사용자 인터페이스에 탑 뷰(Top View)형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 생성할 수 있다. 구체적으로 객체정보는 객체의 높이를 포함할 수 있으며, 컴퓨팅 장치는 객체의 최상단을 기준으로 산출된 영상촬영장치의 화각 및 작동거리에 따른 DORI 영역을 제2 사용자 인터페이스에 표시하기 위한 서비스정보를 생성할 수 있다.
이러한 컴퓨팅 장치는 인지정보를 포함하는 서비스정보를 생성할 수 있다. 컴퓨팅 장치는 객체에 대응하는 PPM 값 및 객체의 DORI 값을 표시하기 위한 서비스정보를 생성할 수 있다.
비록 본 발명이 상기 언급된 바람직한 실시예와 관련하여 설명되었지만, 발명의 요지와 범위로부터 벗어남이 없이 다양한 수정이나 변형을 하는 것이 가능하다. 따라서 첨부된 특허청구의 범위에는 본 발명의 요지에 속하는 한 이러한 수정이나 변형을 포함할 것이다.
10: 객체 100: 시뮬레이션 뷰 시스템
101: 컴퓨팅 장치 103: 네트워크
105: 단말 200: 컴퓨팅 장치의 구성
210: 메모리 220: 프로세서
230: 통신부 300: 사용자 인터페이스
310: 제1 영역 320: 제2 영역
401: 제1 포인터 410: 제1 사용자 인터페이스
501: 제2 포인터 503: 제3 포인터
510: 제1 사용자 인터페이스 511: 식별 영역
513: 인식 영역 515: 관찰 영역
517: 탐지 영역 520: 제1 보조 인터페이스
530: 제2 보조 인터페이스 610: 제2 사용자 인터페이스
701: 제4 포인터

Claims (10)

  1. 영상촬영장치의 성능정보를 획득하는 단계;
    상기 영상촬영장치의 설정정보 및 객체의 객체정보를 획득하는 단계;
    상기 설정정보 및 상기 성능정보에 기초하여, 상기 영상촬영장치의 영역정보를 결정하는 단계;
    상기 설정정보, 상기 성능정보 및 상기 객체정보에 기초하여, 상기 객체의 인지정보를 결정하는 단계;
    상기 영역정보 및 상기 인지정보를 포함하는 서비스정보를 생성하는 단계를 포함하는, 컴퓨팅 장치의 동작 방법.
  2. 제1 항에 있어서,
    상기 영역정보를 결정하는 단계는,
    상기 성능정보 및 상기 설정정보에 기초하여, 화각 및 작동거리에 따른 PPM(Pixels Per Meter)을 산출하는 단계; 및
    상기 작동거리에 따른 PPM에 기초하여, 상기 작동거리에 따른 DORI(Detection, Observation, Recognition, Identification) 영역정보를 결정하는 단계를 포함하는, 컴퓨팅 장치의 동작 방법.
  3. 제2 항에 있어서,
    상기 인지정보를 결정하는 단계는,
    상기 설정정보 및 상기 객체정보에 기초하여, 객체거리를 산출하는 단계; 및
    상기 작동거리에 따른 PPM 및 상기 객체거리에 기초하여, 상기 객체에 대응하는 PPM 및 DORI를 산출하는 단계를 포함하는, 컴퓨팅 장치의 동작 방법.
  4. 제1 항에 있어서,
    상기 설정정보 및 상기 객체정보를 획득하는 단계는,
    사용자 입력에 기초하여, 상기 영상촬영장치에 대응하는 초점거리, 설치높이 및 틸트각 중 적어도 하나를 포함하는 상기 설정정보를 획득하는 단계;
    사용자 입력에 기초하여, 상기 객체에 대응하는 수평거리 및 높이 중 적어도 하나를 포함하는 객체 정보를 획득하는 단계를 포함하는, 컴퓨팅 장치의 동작 방법.
  5. 제4 항에 있어서,
    상기 서비스정보를 생성하는 단계는,
    상기 영역정보에 기초하여, 제1 사용자 인터페이스에 제1 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하는 단계;
    상기 영역정보에 기초하여, 제2 사용자 인터페이스에 상기 제1 뷰와 상이한 제2 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하는 단계를 포함하는, 컴퓨팅 장치의 동작 방법.
  6. 컴퓨팅 장치에 있어서,
    영상촬영장치의 성능정보를 획득하고, 상기 영상촬영장치의 설정정보 및 객체의 객체정보를 획득하며, 상기 설정정보 및 상기 성능정보에 기초하여, 상기 영상촬영장치의 영역정보를 결정하고, 상기 설정정보, 상기 성능정보 및 상기 객체정보에 기초하여, 상기 객체의 인지정보를 결정하며, 상기 영역정보 및 상기 인지정보를 포함하는 서비스정보를 생성하는 프로세서를 포함하는, 컴퓨팅 장치.
  7. 제6 항에 있어서,
    상기 프로세서는,
    상기 성능정보 및 상기 설정정보에 기초하여, 화각 및 작동거리에 따른 PPM(Pixels Per Meter)을 산출하고, 상기 작동거리에 따른 PPM에 기초하여, 상기 작동거리에 따른 DORI(Detection, Observation, Recognition, Identification) 영역정보를 결정하는, 컴퓨팅 장치.
  8. 제7 항에 있어서,
    상기 프로세서는,
    상기 설정정보 및 상기 객체정보에 기초하여, 객체거리를 산출하고, 상기 작동거리에 따른 PPM 및 상기 객체거리에 기초하여, 상기 객체에 대응하는 PPM 및 DORI를 산출하는, 컴퓨팅 장치.
  9. 제6 항에 있어서,
    상기 프로세서는,
    사용자 입력에 기초하여, 상기 영상촬영장치에 대응하는 초점거리, 설치높이 및 틸트각 중 적어도 하나를 포함하는 상기 설정정보를 획득하고, 사용자 입력에 기초하여, 상기 객체에 대응하는 수평거리 및 높이 중 적어도 하나를 포함하는 객체 정보를 획득하는, 컴퓨팅 장치.
  10. 제9 항에 있어서,
    상기 프로세서는,
    상기 영역정보에 기초하여, 제1 사용자 인터페이스에 제1 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하고, 상기 영역정보에 기초하여, 제2 사용자 인터페이스에 상기 제1 뷰와 상이한 제2 뷰 형식의 탐지 영역, 관찰 영역, 인식 영역 및 식별 영역을 표시하기 위한 서비스정보를 생성하는, 컴퓨팅 장치.


KR1020220080720A 2022-02-08 2022-06-30 영상촬영장치 및 객체를 고려하여 인지영역을 생성하는 방법 및 장치 KR20230120073A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220016433 2022-02-08
KR1020220016433 2022-02-08

Publications (1)

Publication Number Publication Date
KR20230120073A true KR20230120073A (ko) 2023-08-16

Family

ID=87848425

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220080720A KR20230120073A (ko) 2022-02-08 2022-06-30 영상촬영장치 및 객체를 고려하여 인지영역을 생성하는 방법 및 장치
KR1020220091155A KR20230120076A (ko) 2022-02-08 2022-07-22 맵과 카메라의 촬영범위를 표시하기 위한 방법 및 장치
KR1020220111462A KR20230120079A (ko) 2022-02-08 2022-09-02 뷰 화면을 통해 렌즈를 추천하는 방법 및 장치

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020220091155A KR20230120076A (ko) 2022-02-08 2022-07-22 맵과 카메라의 촬영범위를 표시하기 위한 방법 및 장치
KR1020220111462A KR20230120079A (ko) 2022-02-08 2022-09-02 뷰 화면을 통해 렌즈를 추천하는 방법 및 장치

Country Status (1)

Country Link
KR (3) KR20230120073A (ko)

Also Published As

Publication number Publication date
KR20230120079A (ko) 2023-08-16
KR20230120076A (ko) 2023-08-16

Similar Documents

Publication Publication Date Title
US10796543B2 (en) Display control apparatus, display control method, camera system, control method for camera system, and storage medium
US10404947B2 (en) Information processing apparatus, information processing method, camera system, control method for camera system, and storage medium
US8358872B2 (en) Information-inputting device inputting contact point of object on recording surface as information
US9633450B2 (en) Image measurement device, and recording medium
KR101739318B1 (ko) 표시 제어장치, 촬상 시스템, 표시 제어방법, 및 기록 매체
JP6478654B2 (ja) 撮像装置及びその制御方法
JP7059054B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2007129709A (ja) イメージングデバイスをキャリブレートするための方法、イメージングデバイスの配列を含むイメージングシステムをキャリブレートするための方法およびイメージングシステム
JP2015115839A5 (ko)
WO2017043258A1 (ja) 計算装置および計算装置の制御方法
JP2019062575A (ja) 制御装置及び制御方法、プログラム
JP6049452B2 (ja) 情報表示装置、情報表示システム、それらの制御方法、及びプログラム
JP5822545B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2016212784A (ja) 画像処理装置、画像処理方法
CN109981989B (zh) 渲染图像的方法、装置、电子设备和计算机可读存储介质
JP5693022B2 (ja) 表示制御装置および表示制御システム、並びにそれらの制御方法、プログラム、記憶媒体
JP5613147B2 (ja) カメラパラメータ測定装置、カメラパラメータ測定方法、及びプログラム
CN112449165A (zh) 投影方法、装置及电子设备
KR20230120073A (ko) 영상촬영장치 및 객체를 고려하여 인지영역을 생성하는 방법 및 장치
JPWO2015141185A1 (ja) 撮像制御装置、撮像制御方法およびプログラム
JP5972947B2 (ja) ユーザの撮影を支援する方法、携帯式電子機器およびコンピュータ・プログラム
KR101763938B1 (ko) 위치정보 기반의 영상데이터의 처리 방법 및 장치
JP5550431B2 (ja) 表示制御装置及び表示制御方法
WO2020059064A1 (ja) 算出装置、情報処理方法および記憶媒体
JP6342832B2 (ja) 入力装置