KR20180036562A - 정보 처리장치, 정보 처리방법 및 기억매체 - Google Patents

정보 처리장치, 정보 처리방법 및 기억매체 Download PDF

Info

Publication number
KR20180036562A
KR20180036562A KR1020170123863A KR20170123863A KR20180036562A KR 20180036562 A KR20180036562 A KR 20180036562A KR 1020170123863 A KR1020170123863 A KR 1020170123863A KR 20170123863 A KR20170123863 A KR 20170123863A KR 20180036562 A KR20180036562 A KR 20180036562A
Authority
KR
South Korea
Prior art keywords
path
input
subject
information
route
Prior art date
Application number
KR1020170123863A
Other languages
English (en)
Inventor
후토시 하치무라
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20180036562A publication Critical patent/KR20180036562A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • G06K9/00771
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

경로 정보의 입력을 수신하고, 경로 정보에 근거하여 선택된 촬상장치에 의해 촬상된 영상에 포함되는 피사체에 대해 추미 처리를 행한다.

Description

정보 처리장치, 정보 처리방법 및 기억매체{INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND STORAGE MEDIUM}
본 발명은, 정보 처리장치, 정보 처리방법 및 기억매체에 관한 것이다.
일본국 특개 2015-19248호 공보에는 추적 대상 피사체를 추적하는 동작에서 사람의 감시를 지원하는 추적 지원장치가 제안되어 있다. 추적 지원장치는, 감시 화면 내의 표시부에 있어서 추적 대상 피사체를 지정하기 위해 감시자에 의해 행해진 입력 조작에 따라, 지정된 피사체를 추적 대상으로 설정하는 추적 대상 설정부를 갖고 있다.
본 발명의 일면에 따르면, 정보 처리장치는, 경로에 관한 정보의 입력을 수신하도록 구성된 수신부와, 수신한 경로에 관한 정보에 근거하여, 복수의 촬상장치로부터 상기 경로에 대응하는 촬상장치를 선택하도록 구성된 선택부와, 해당 선택한 촬상장치에 의해 촬상된 영상에 포함되는 피사체를 추미하도록 구성된 처리부를 구비한다.
본 발명의 또 다른 특징은 첨부도면을 참조하여 주어지는 이하의 실시형태의 상세한 설명으로부터 명백해질 것이다.
도 1은 관리 서버의 하드웨어 구성의 일례를 도시한 도면이다.
도 2는 관리 서버의 소프트웨어 구성의 일례를 도시한 도면이다.
도 3은 메인의 정보처리의 일례를 나타낸 흐름도다.
도 4는 감시 대상 영역에 관한 영역 맵의 일례를 도시한 도면이다.
도 5는 영역 맵에 카메라 배치 정보를 중첩한 카메라 맵의 일례를 도시한 도면이다.
도 6은 이동 경로 결정이 완료된 상태의 일례를 도시한 도면이다.
도 7은 편차 범위 α이 의미를 갖는 범위인 경우의 일례를 도시한 도면이다.
도 8은 복수의 카메라가 선택된 상태의 일례를 도시한 도면이다.
도 9는 관리 서버의 소프트웨어 구성의 일례를 도시한 도면이다.
도 10은 정보처리의 일례를 나타낸 흐름도다.
도 11은 이동 경로 묘화의 처리의 일례를 나타낸 흐름도다.
도 12는 예측 이동 경로선의 묘화가 완료된 상태의 일례를 도시한 도면이다.
도 13은 예측 이동 경로의 해석 처리의 일례를 나타낸 흐름도다.
도 14는 복수의 카메라가 선택된 상태의 일례를 도시한 도면이다.
도 15는 프리핸드 선의 묘화 처리의 일례를 나타낸 흐름도다.
이하, 본 발명의 실시형태에 대해서 도면을 참조하여 설명한다.
피사체 추미 시스템은, 관리 서버(1)와 복수의 카메라(2)를 포함한다.
도 1은, 관리 서버(1)의 하드웨어 구성의 일례를 도시한 도면이다.
관리 서버(1)의 하드웨어 구성은, 중앙처리장치(CPU)(101)와, 메모리(102)와, 통신장치(103)와, 표시장치(104)와, 입력장치(105)를 포함한다. CPU(101)은, 관리 서버(1)를 제어한다. 메모리(102)는, CPU(101)이 처리에 이용하는 데이터, 프로그램 등을 기억한다. 입력장치(105)는, 마우스, 버튼 등이며, 유저의 조작을 관리 서버(1)에 입력한다. 표시장치(104)는, 액정 표시장치 등이며, CPU(101)에 의한 처리의 결과 등을 표시한다. 통신장치(103)는, 관리 서버(1)를 네트워크에 접속한다. CPU(101)이 메모리(102)에 기억된 프로그램에 근거하여 처리를 실행함으로써, 후술하는 도 2, 도 9에 나타낸 관리 서버(1)의 소프트웨어 구성 및 후술하는 도 3, 도 10, 도 11, 도 13, 도 15의 흐름도에 나타낸 처리가 실현된다.
도 2는, 관리 서버(1)의 소프트웨어 구성의 일례를 도시한 도면이다.
관리 서버(1)의 소프트웨어 구성은, 카메라 제어 관리부(10), 기억부(11), 제어부(12), 맵 관리부(13), 카메라 배치 관리부(14), 표시부(15), 입력부(16), 이동 경로 해석부(17), 추미 카메라 선택 관리부(18), 네트워크부(19), 추미 처리부(20)를 포함한다. 카메라 제어 관리부(10)는, 카메라(2)에 의한 화상 프레임의 촬상, 카메라(2)로부터의 화상 프레임의 수신 등을 제어 및 관리한다.
기억부(11)는, 카메라 제어 관리부(10)로부터의 화상 프레임, 및 화상 프레임을 연속 압축해서 구성한 생성한 동화상 데이터를 메모리(102)에 기록, 보존 등을 행한다.
제어부(12)는 관리 서버(1)를 제어한다.
맵 관리부(13)는 카메라(2)가 설치된 환경으로서 영역 맵을 도시한다.
카메라 배치 관리부(14)는, 맵 관리부(13)에 의해 관리되고 있는 영역 맵 위의 복수의 카메라(2)의 배치를 지정하는 배치 정보를 생성 및 관리한다.
표시부(15)는, 맵 관리부(13)에서 관리되고 있는 영역 맵과, 영역 맵 위에 중첩된 카메라(2)의 배치에 관한 카메라 배치 정보를 표시장치(104)를 거쳐 표시한다.
입력부(16)는, 마우스 등의 입력장치(105)를 사용하여 행해진 유저 조작에 근거하여, 표시된 영역 맵 위에 입력되는 추미용의 경로의 지시를 제어부(12)에 입력한다.
이동 경로 해석부(17)는, 입력부(16)에 의해 입력된 정보를 기초로 이동 경로를 해석한다.
추미 카메라 선택 관리부(18)는, 이동 경로 해석부(17)에 의해 행해진 해석결과에 근거하여, 추미에 사용하는 카메라(2) 중에서 적어도 한개를 선택하고, 선택한 카메라(2)를 관리한다.
네트워크부(19)는, 네트워크를 거쳐 관리 서버(1)와, 카메라(2), 다른 카메라 관리 서버 또는 비디오 관리 소프트웨어(video management software)(VMS) 서버 사이에서 코맨드와 영상의 교환을 중개한다.
추미 처리부(20)는, 추미 카메라 선택 관리부(18)에서 선택된 카메라(2)로부터의 영상을 네트워크부(19) 경유로 수신하고, 영상을 사용해서 추미 처리를 행한다.
도 3은 정보처리의 일례를 나타낸 흐름도다.
스텝 S101에 있어서, 맵 관리부(13)는, 감시 대상 영역에 관한 영역 맵(도 4)을 생성한다.
스텝 S102에 있어서, 제어부(12)는, 감시 대상 영역 내에 위치하는 복수의 카메라(2)의 배치와, 카메라(2)가 각각 촬상하는 방향의 촬상 방향 정보를 카메라 배치 관리부(14)로부터 취득한다. 제어부(12)는, 감시 대상 영역을 나타낸 영역 맵(도 4)에 카메라 배치 정보를 중첩한 카메라 맵(도 5)을 생성하고, 영역 맵과 함께 카메라 맵을 기억부(11)를 거쳐 메모리(102)에 보존한다.
제어부(12)는, 카메라 배치 정보로서의 카메라(2)의 배치 정보와, 카메라(2)의 촬상 방향의 정보를, 카메라(2)의 각각에 관해, 입력장치(105)를 거친 유저의 수동으로의 데이터 입력을 통해 취득할 수 있다. 제어부(12)는, 카메라 제어 관리부(10)로부터 네트워크부(19)를 거쳐, 각각 대상의 카메라(2)로부터 각종 설치 정보를 취득하고, 각각 대상의 카메라(2)에 의해 촬상된 영상의 해석과 함께, 카메라 배치 정보와 촬상 방향 정보를 실시간으로 생성할 수 있다.
스텝 S103에 있어서, 제어부(12)는, 메모리(102)에 보존된 영역 맵(도 4)을, 표시부(15)를 거쳐 표시장치(104)에 표시한다.
제어부(12)는, 카메라 맵(도 5)을 표시장치(104)에 표시할 수 있다. 그렇지만, 카메라 배치를 본 유저가, 카메라 배치에 근거한 예측 경로를 묘화하는 바이어스가 걸릴 수 있다. 이러한 상황을 방지하기 위해, 본 실시예에서는 제어부(12)는 영역 맵(도 4)을 표시장치(104)에 표시한다.
유저가 표시장치(104)에 표시된 영역 맵(도 4)을 기초로 입력장치(105)를 사용하여, 추미 대상의 이동 경로의 기점 및 종점이 되는 2지점을 지정한다. 스텝 S104에 있어서, 제어부(12)는, 2지점의 지정을 받는다.
본 실시형태에서, 기점을 A 지점, 종점을 B 지점으로 한다.
스텝 S105에 있어서, 제어부(12)는, 2지점의 지정을 받았는지 아닌지를 판정한다. 제어부(12)가 2지점의 지정을 받았다고 판정한 경우(스텝 S105에 있어서 YES), 스텝 S106으로 처리를 진행한다. 제어부(12)가 2지점의 지정을 받지 않고 있다고 판정한 경우(스텝 S105에 있어서 NO), 스텝 S104로 처리를 되돌린다.
스텝 S104, 또는 스텝 S104 및 스텝 S105에서 행해지는 처리는, 추미 대상의 피사체의 이동 경로에 관한 정보의 입력을 수신하는 수신처리의 일례다
스텝 S106에 있어서, 추미 대상의 이동 경로의 기점 및 종점이 되는 2지점이 지정된 후, 이동 경로 해석부(17)는, 2지점 사이의 최단 경로와, 최단 경로에 준하는 복수의 경로를 계산한다.
계산식은 L+L×α이다.
계산식에서, L은 최단 경로이고, α은 추미 대상의 이동 경로의 편차 범위(허용범위)이다. α는 사전에 정해 두는 것으로 한다. α의 값은, 예를 들면, 시간이나 경로 길이로서 지정할 수 있다. 통상, 시간과 경로 길이는 비례 관계를 갖는다. 그러나, 경로 상에 움직이는 보도, 에스컬레이터 또는 엘리베이터 등의 교통수단이 존재하는 경우에는, 시간과 경로 길이가 항상 비례 관계를 갖는 것은 아니다. 그 때문에, α의 값을 지정하는 다양한 방법이 존재한다. 예를 들어, 시간만을 지정하거나, 경로 길이만 지정하거나, 시간과 경로 길이 양쪽을 지정하는 것에 의해 α의 값을 지정한다.
이동 경로 결정이 완료된 상태를 도시한 도면이 도 6이다. 도 6에서는, 2개의 지점, 즉 A 지점과 B 지점 사이의 최단 경로 4개(5A, 5B, 5C, 5D)가 그려져 있다. 본 실시형태에서는, 지상의 도로만을 고려하는 것으로 한다. 도 6의 예에서는 α의 값은 기여하고 있지 않지만, 복잡한 경로의 경우에는 α의 값이 의미를 갖는다.
α가 경로 길이로서 지정되는 가능한 경우의 예로는, 도 7과 같은 공원의 지름길(7A)과 지하도(7B)나 공중의 산책길을 들 수 있다. α이 시간으로서 지정되는 가능한 경우의 예로는, 경로 상에 교통수단(움직이는 보도, 에스컬레이터, 엘리베이터, 케이블카, 곤도라, 자전거, 모터사이클, 버스, 전차, 택시) 등이 있는 경우를 들 수 있다.
제어부(12)는, 이동 경로 해석부(17)로부터의 이동 경로 결정 결과를 기초로 추미 카메라 선택 관리부(18)를 사용해서 이하에서 서술하는 것 같은 추미 카메라 선택 처리를 실행한다.
스텝 S107에 있어서, 추미 카메라 선택 관리부(18)는 이동 경로를 영상으로서 촬상하는 카메라(2)에 대해, 기억부(11)에 보존된 카메라 맵(도 5)을 기초로 매칭 계산을 실시하여, 복수의 카메라(2)를 선택한다.
카메라(2)가 선택된 상태를 도시한 도면이 도 8이다.
도 8 중의 카메라 6a 내지 6h가 선택된 8개의 카메라(2)이다.
카메라(2)의 시야가 중복하지 않고 있는 경우가 있지만, 본 실시형태에서의 추미 처리는 카메라의 시야 중복이 없이 추미가능한 알고리즘을 사용한다.
본 실시형태에서는, 추미 대상물로서 인물을 상정하고 있지만, 추미 대상물(피사체)로서 판별가능한 특징량이 영상으로부터 추출가능하면, 추미 대상물은 인물에 한정되는 것은 아니고, 모든 추미 대상물(피사체)이 될 수 있다. 추미 대상물(피사체)은, 차, 모터사이클, 자전거, 동물 등 사람 이외의 것이 될 수 있다.
제어부(12)는, 추미 카메라 선택 관리부(18)에서 선택된 복수의 카메라(2)를 지정하고, 각각의 카메라(2)로부터의 영상을, 네트워크부(19)를 경유해서 VMS로부터 카메라 제어 관리부(10)에게 수신하게 하여, 수신된 영상을 기억부(11)를 거쳐 메모리(102)에 기록한다.
스텝 S108에 있어서, 추미 처리부(20)는, 복수의 카메라(2)로부터 받고 기억부(11)를 거쳐 메모리(102)에 기록한 영상을 해석하여, 피사체 추미 처리의 실행을 개시한다.
이와 달리, 추미 카메라 선택 관리부(18)에서 선택된 복수의 카메라(2)를 지정하는 것 대신에, 제어부(12)는, 복수의 영상을 선택 및 지정하고, 선택 및 지정한 복수의 영상을 VMS로부터 취득하여, 취득된 영상을 기억부(11)를 거쳐 메모리(102)에 기록할 수 있다.
추미 처리부(20)는, 복수의 영상을 해석하면서, 이동 경로 위에 나타나는 피사체(인물)를 검출하고, 피사체의 한개 또는 복수의 특징량을 추출하고, 각각의 피사체의 특징량을 비교한다. 추미 처리부(20)는, 어떤 피사체의 특징량의 합치도가 일정 레벨 이상 있는 경우에, 피사체들이 동일한 것으로 판정하여, 추미 처리를 개시한다.
추미 처리부(20)는, 카메라(2)에 의해 촬영된 영상들이 같은 장소를 나타내지 않더라도(시야가 중복되지 않아도) 동일 피사체(인물)의 추미를 가능하게 하는 기술을 사용한다. 추미 처리부(20)는, 동일 피사체(인물)의 추미의 처리에 있어서 얼굴의 특징량을 사용할 수 있다. 추미 처리부(20)는, 추미 처리의 정밀도 향상을 위해, 피사체의 특징량으로서, 색정보 등의 다른 정보를 사용할 수 있다.
본 실시형태에 따르면, 단순히 기점 및 종점인 2지점을 지정(포인트)함으로써 추미에 필요한 카메라를 자동으로 선택 및 설정할 수 있다.
도 9는 관리 서버(1)의 소프트웨어 구성의 일례를 도시한 도면이다.
도 9의 관리 서버(1)의 소프트웨어 구성은, 도 2의 이동 경로 해석부(17)가 예측 이동 경로 해석부(17b)로 변경되고 이동 경로 관리부(21)가 추가된 것 이외는, 도 2의 관리 서버(1)의 소프트웨어 구성과 유사하기 때문에, 유사한 기능에 대해서는 그 설명을 생략한다.
예측 이동 경로 해석부(17b)는, 입력부(16)를 거쳐 유저에 의해 입력된 정보를 기초로, 예측 이동 경로를 해석한다.
이동 경로 관리부(21)는, 추미 처리부(20)에 의해 과거에 추미 처리가 행해진 이동 경로를 데이터로서 축적 및 관리한다.
도 10은, 도 9에 나타낸 구성에 대응하는 정보처리의 일례를 나타낸 흐름도다.
스텝 S201 내지 S203의 맵 생성으로부터 맵 표시 처리는, 도 3의 스텝 S101 내지 스텝 S103의 처리와 유사하기 때문에, 스텝 S201 내지 S203의 설명을 생략한다.
스텝 S204에 있어서, 제어부(12)는, 표시장치(104)에 표시된 영역 맵(도 4)을 기초로, 유저가 입력장치(105) 등을 거쳐 입력한 입력 정보에 근거하여, 추미 대상이 이동하는 것으로 예측하는 예측 이동 경로를, 표시부(15)를 거쳐 표시장치(104)에 묘화한다.
유저 조작에 따라, 예측 이동 경로를 묘화하는 정보처리에 관해서, 도 11을 참조해서 상세하게 설명한다.
스텝 S211에 있어서, 제어부(12)는, 표시부(15)를 거쳐 표시장치(104)에 도 4에 나타내는 영역 맵을 표시한다. 유저는, 입력장치(105)의 일례인 마우스(컴퓨터 마우스)의 포인터를 표시장치(104)의 영역 맵(도 4) 위에 이동시킴으로써 예측 이동 경로선을 입력한다.
본 실시형태에서는, 예측 이동 경로선의 입력 방법으로서, 프리핸드 입력과, 지시점을 선으로 연결시키는 지시점 입력을 선택가능한 방법으로서 설명한다. 그러나, 예측 이동 경로선의 입력 방법은, 프리핸드 입력과 지시점 입력에 한정되는 것은 아니다.
스텝 S212에 있어서, 제어부(12)는, 예측 이동 경로선의 입력 방법으로서, 프리핸드 입력이 선택되어 있는지 아닌지를 판정한다. 제어부(12)가 프리핸드 입력이 선택되어 있다고 판정한 경우(스텝 S212에 있어서 YES), 스텝 S213으로 처리를 진행한다. 제어부(12)가 프리핸드 입력이 선택되지 않고 있다고 판정한 경우(스텝 S212에 있어서 NO), 스텝 S214로 처리를 진행한다.
유저는, 입력장치(105)의 일례인 마우스로 시점을 클릭한 후, 마우스를 드래그하여 표시장치(104)에 표시된 영역 맵(도 4) 위에 예측 이동 경로선을 입력한다. 이와 달리, 유저는, 시점을 클릭하여, 마우스를 이동시킨 후, 종점에서 클릭하는 방법으로 예측 이동 경로선을 입력할 수 있다.
스텝 S213에 있어서, 제어부(12)는, 입력된 예측 이동 경로선에 근거하여 영역 맵(도 4) 위에 예측 이동 경로선을, 표시부(15)를 거쳐 묘화한다. 제어부(12)는 건물 등의 물체의 존재로 인해 마우스가 이동할 수 없는 범위를 제외한 범위로 마우스의 이동가능한 범위를 한정할 수 있다. 제어부(12)는, 건물의 출입구를 이동 대상으로 설정하여, 마우스의 포인터를 건물 위로 이동할 수 있다.
스텝 S214에 있어서, 제어부(12)는, 예측 이동 경로선의 입력 방법으로서, 지시점 입력이 선택되어 있는지 아닌지를 판정한다. 제어부(12)가 지시점 입력이 선택되어 있다고 판정한 경우(스텝 S214에 있어서 YES), 스텝 S215로 처리를 진행한다. 제어부(12)가 지시점 입력이 선택되지 않고 있다고 판정한 경우(스텝 S214에 있어서 NO), 스텝 S216으로 처리를 진행한다.
스텝 S215에 있어서, 제어부(12)는, 유저가 입력장치(105)의 일례인 마우스로 시점을 클릭한 후, 다음의 클릭까지, 선을 마우스의 포인터에 근거하여 늘리도록 표시부(15)를 거쳐 선을 묘화한다. 유저가 다음의 점을 클릭하면, 묘화선이 확정된다. 그후, 제어부(12)는, 다음의 클릭까지 마우스의 포인터에 근거하여 선을 늘리는 동작을 반복하고, 최후에는, 마우스의 더블클릭으로 조작을 종료해서 예측 이동 경로선을 표시부(15)를 거쳐 묘화한다. 유저는, 다지점을 연결하는 선분을 예측 이동 경로로서 입력한다. 점들을 연결하는 선분은 직선에 한정되지 않으며, 건물 등의 물체를 우회하도록 곡선이어도 된다. 예측 이동 경로 해석부(17b)는, 점들을 연결하지 않고, 다지점의 점의 지정 만으로, 예측 이동 경로의 해석 처리를 실행할 수 있다. 예측 이동 경로의 해석 처리의 실행은, 전술한 최단 경로 및 최단 경로에 준하는 경로를 탐색하는 처리와 유사하기 때문에, 예측 이동 경로의 해석 처리의 실행의 설명을 생략한다.
유저는, 예측 이동 경로선을 묘화하는 것을 종료한 후, 최후에 묘화 완료의 버튼을 눌러, 예측 이동 경로선의 묘화를 완료한다. 스텝 S216에 있어서, 제어부(12)는 묘화가 완료하였는지 아닌지를 판정한다. 제어부(12)가, 묘화가 완료했다고 판정하면(스텝 S216에 있어서 YES), 도 11의 흐름도에 나타내는 처리를 종료한다. 한편, 제어부(12)가 묘화가 완료하고 있지 않는 판정하면(스텝 S216에 있어서 NO), 스텝 S212로 처리를 되돌린다. 제어부(12)는, 묘화 완료의 버튼이 눌러졌는지 아닌지에 근거하여, 묘화가 완료하였는지 아닌지를 판정한다.
도 12는 예측 이동 경로선의 묘화 완료 상태를 도시한 도면이다.
도 12에서, 선 12A는, 유저가 묘화한 예측 이동 경로선이다.
스텝 S205에 있어서, 제어부(12)는, 예측 이동 경로선의 묘화를 완료하였는지 아닌지를 판정한다. 제어부(12)가, 예측 이동 경로선의 묘화를 완료했다고 판정하면(스텝 S205에 있어서 YES), 스텝 S206으로 처리를 진행한다. 제어부(12)가 예측 이동 경로선의 묘화를 완료하고 있지 않는 판정하면(스텝 S205에 있어서 NO), 스텝 S204의 처리로 되돌아간다.
스텝 S204, 또는 스텝 S204 및 스텝 S205에서 행해지는 처리는, 추미 대상의 피사체의 이동 경로에 관한 정보의 입력을 수신하는 수신처리의 일례다.
스텝 S206에 있어서, 제어부(12)는, 예측 이동 경로 해석부(17b)를 사용하여, 예측 이동 경로의 해석 처리를 실행한다. 이하에서는 설명의 간략화를 위해, 예측 이동 경로 해석부(17b) 대신에, 제어부(12)가 예측 이동 경로의 해석 처리를 행한다.
해석 처리의 첫번째로서, 유저가 묘화한 예측 이동 경로선과 영역 맵(도 4) 사이의 대응관계에 근거하여 유저의 의도를 해석하는 처리이다.
예를 들면, 폭이 넓은 도로의 경우, 제어부(12)는, 우측 단이나 좌측 단을 지정하도록 선이 그려져 있는지 아닌지에 근거하여, 건물이나 보도의 옆을 통과하는 경로로 선을 판정한다. 제어부(12)는, 곡선의 경우에는, 곡선의 정점의 위치에 놓인 점포, 사무소 등에 들르는 경로로 선을 판정한다. 제어부(12)는, 길의 어느쪽 측을 따라 경로가 통과할 수 있다는 것을 지정하기 위한 옵션 버튼을 표시하여, 유저의 의도를 취득할 수 있다. 또한, 제어부(12)는, 선이 복수회 그려진 경우에는, 이 선을 중요한 경로라고 판정하고, 다음 처리의 카메라 배치에 부여되는 가중값을 증가할 수 있다.
해석 처리의 두번째로서, 예를 들면, 제어부(12)는, 이전의 추미 처리를 실행한 추미 대상의 이전의 이동 경로를 사용해서 예측 해석을 행한다. 이전의 추미 처리를 실행한 추미 대상의 이전의의 이동 경로는, 이동 경로 관리부(21)에 의한 관리를 기초로, 기억부(11)를 거쳐 메모리(102)에 기록된다.
이전의 이동 경로를 사용하여 행해진 정보처리에 대해서, 도 13을 참조하여 이하에서 설명한다.
스텝 S221에 있어서, 제어부(12)는 이전의 이동 경로를 참조한다.
스텝 S222에 있어서, 제어부(12)는, 참조한 이전의 이동 경로가 나타내는 이동 경로와 유저에 의해 묘화된 예측 이동 경로의 비교하고, 이동 경로를 해석하여 매칭을 실시한다. 제어부(12)는, 매칭처리의 결과, 매칭의 일치 정도(매칭 정도)가 설정된 값 이상인 상위 소정 수(예를 들면, 2개)의 예측 이동 경로를 추출한다.
스텝 S223에 있어서, 제어부(12)는, 예측 이동 경로의 추출이 완료하였는지 아닌지를 판정한다. 제어부(12)가, 예측 이동 경로의 추출이 완료했다고 판정한 경우(스텝 S223에 있어서 YES), 도 13의 흐름도의 처리를 종료한다. 제어부(12)가 예측 이동 경로의 추출이 완료하고 있지 않는 판정한 경우(스텝 S223에 있어서 NO), 스텝 S224로 처리를 진행한다.
스텝 S224에 있어서, 제어부(12)는, 스텝 S222에 있어서의 매칭 정도를 변경한다. 예를 들면, 제어부(12)는, 스텝 S224의 처리시마다, 매칭 정도를 10%만큼 감소시킨다.
그후, 제어부(12)는, 예측 이동 경로 해석부(17b)로부터의 예측 이동 경로 해석의 결과를 기초로, 추미 카메라 선택 관리부(18)를 사용해서 이하에서 서술하는 것과 같은 추미 카메라 선택 처리를 실행한다.
스텝 S207에 있어서, 제어부(12)는, 기억부(11)에 보존된 카메라 맵(도 5)을 기초로 매칭 계산을 실시하고, 예측 이동 경로선의 영상을 촬상하는 복수의 카메라(2)를 선택한다.
복수의 카메라(2)가 선택된 상태를 도시한 도면이 도 14이다.
도 14에 있어서, 경로 13A와 13B가, 예측 이동 경로 해석의 결과로써 추가 선택된 예측 이동 경로다.
도 14에서, 카메라 13a 내지 13g가 선택된 7개의 카메라(2)이다.
추미 개시 처리인 스텝 S208은, 도 3의 스텝 S108과 유사하기 때문에, 스텝 S208의 설명을 생략한다.
이상의 구성에 따르면, 유저는, 관리 서버(1) 상의 설정 화면에서, 추미 대상을 선택하는 조작을 행하지 않는다. 그 대신에, 유저는, 추미 대상이 이동한다고 예측하는 예측 경로를 선으로 설정한다. 관리 서버(1)는, 경로선의 묘화상태와 이전의 이동 경로를 활용함으로써, 복수 경로에 있어서의 추미 처리를 가능하게 할 수 있다.
도 15는, 도 11의 스텝 S213에서 행해진 처리의 상세를 나타낸 흐름도다.
프리핸드 입력을 선택한 유저는, 입력장치(105)의 일례인 마우스의 포인터를 추미 예측 이동 경로의 개시 위치로 이동시켜, 개시 위치를 클릭한다. 스텝 S311에 있어서, 제어부(12)는 입력부(16)를 거쳐 유저에 의한 시점에 있어서의 클릭을 받는다.
그후, 유저는, 마우스의 클릭을 떼지 않고, 드래그로 불리는 동작을 행하여, 표시부(15)에 표시된 영역 맵(도 4) 위에서 마우스 포인터를 이동시킴으로써 예측 이동 경로의 선을 묘화해 간다.
유저가, 마우스의 드래그 동작으로 예측 이동 경로의 선을 묘화하는 동안, 교차점 등의 코너에서, 소정 시간 동안, 마우스 포인터를 멈추는 조작을 행하는 경우가 있을 수도 있다.
스텝 S312에서, 제어부(12)는, 입력부(16)를 거쳐 수신된 정보에 근거하여 마우스 포인터가 정지되었는지 아닌지를 판정한다. 제어부(12)가, 마우스 포인트가 정지되었다고 판정한 경우(스텝 S312에 있어서 YES), 스텝 S313으로 처리를 진행한다. 제어부(12)가 마우스 포인트가 정지되지 않고 있다고 판정한 경우(스텝 S312에 있어서 NO), 스텝 S312의 처리를 반복한다.
스텝 S313에 있어서, 제어부(12)는, 마우스 포인터의 정지 시간을 계측한다. 본 실시형태에서는 마우스 포인터의 정지 시간을 계측하는 것으로 했지만, 계측 대상은 정지 시간에 한정되는 것은 아니고, 유저가 망설이는 행동을 표시하는 마우스 포인터의 동작에 관한 정보가 될 수 있다.
스텝 S314에 있어서, 제어부(12)는, 입력부(16)를 거친 입력 등에 근거하여 마우스 포인터가 재이동을 개시하였는지 아닌지를 판정한다. 제어부(12)가, 마우스 포인터가 재이동을 개시했다고 판정하면(스텝 S314에서 YES), 스텝 S315로 처리를 진행한다. 제어부(12)가 마우스 포인터가 재이동을 개시하지 않고 있다고 판정하면(스텝 S314에서 NO), 스텝 S316으로 처리를 진행한다.
스텝 S315에 있어서, 제어부(12)는, 마우스 포인터의 정지 위치와 정지 시간을 기억부(11)를 거쳐 메모리(102)에 기록한다. 마우스 포인터가 정지하고, 이동을 반복하여, 종점에서 마우스 버튼을 떼어, 묘화를 종료한다.
스텝 S316에 있어서, 제어부(12)는, 입력부(16)로부터의 입력에 근거하여 드래그가 종료하였는지 아닌지를 판정한다. 제어부(12)가, 드래그가 종료했다고 판정한 경우(스텝 S316에 있어서 YES), 도 15의 흐름도의 처리를 종료한다. 제어부 (12)가 드래그가 종료하고 있지 않는 판정한 경우(스텝 S316에 있어서 NO), 스텝 S313으로 처리를 되돌린다.
그후, 제어부(12)는, 예측 이동 경로의 해석 처리로서 이하의 처리를 실행한다.
제어부(12)는, 예측 이동 경로선의 묘화에서 마우스 포인터의 정지 위치가, 영역 맵(도 4) 위의 적절한 교차로를 해석한다.
제어부(12)는, 교차로로 판정된 마우스 포인터의 정지 위치의 정지 시간을 해석하여, 가장 장시간 동안 마우스 포인터가 정지한 소정 수(예를 들면, 2개)의 이동 경로를 추출한다. 더욱 구체적으로 설명하면, 제어부(12)는, 시점으로부터 종점까지 유저가 예측 이동 경로선을 묘화하는 동안 삭제 또는 변경된 이동 경로로부터, 교차로에 있어서 가장 장시간 마우스 포인터가 정지한 소정 수(예를 들면, 2개)의 이동 경로를 추출한다. 교차로에 있어서 가장 장시간 동안 마우스 포인터가 정지한 소정 수(예를 들면, 2개)의 이동 경로는, 프리핸드의 입력시에 수정, 또는 변경된 이동 경로로부터 묘화 상태에 근거하여 선택된 이동 경로의 일례다.
본 실시형태에서는 제어부(12)는, 가장 장시간 동안 마우스 포인터가 정지한 상위 2개의 이동 경로를 추출하지만, 추출되는 이동 경로의 수는 2개에 한정되지 않아도 된다. 표시된 이동 경로를 보는 것이 곤란하기 때문에, 상위 2개의 이동 경로를 설명하고 있다.
제어부(12)는, 추출한 2개의 이동 경로와, 유저에 의해 묘화된 예측 이동 경로를 포함하는 3개의 이동 경로를 기초로, 카메라(2)의 선택을 실시한다. 이후의 추미 카메라 선택으로부터 추미 처리까지의 처리는 상기와 유사하므로, 이후의 처리의 설명을 생략한다.
이상과 같이, 유저의 묘화를 계측하고 해석함으로써, 보다 유저의 의도에 적합한 예측 이동 경로를 추출해서, 카메라(2)를 선택하고 설정하여, 추미 처리를 행한다.
이때, 본 발명은 상기 각각의 실시형태에 한정되는 것은 아니고, 이하와 같은 변형이 가능하다.
예를 들면, 경로를 지정하는 방법으로서, 2지점이나, 묘화선으로 지정하는 수법에 대해 설명하고 있지만, 다른 방법을 사용할 수 있다. 예를 들면, 길의 이름 지정이나, 위도 및 경도 지정, 통과할 다리(통과하지 않을 다리)의 지정으로 경로를 지정할 수 있다.
다른 에로는, 통로(보도, 차도, 자전거 도로, 산책길, 지하도, 지붕이 있는 길, 우산이 없이 사람이 걸을 수 있는 길) 지정, 지상 2층의 경로 지정, 단차가 없는 경로 지정, 난간을 갖는 경로 지정, 휠체어를 이동 가능한 경로의 지정을 들 수 있다.
영역 맵 위에 예측 경로를 묘화할 때에 마우스를 사용하고 있지만, 입력장치는 마우스에 한정되는 것은 아니다. 예를 들면, 영역 맵을 터치패널 디스플레이에 표시하고, 손가락이나 펜을 사용하여 예측 경로를 묘화해도 된다.
예측 경로의 지정을 위해 바코드를 실제 공간에 붙일 수 있다.
영역 맵 위에 건물의 외측의 도로를 따라서만 예측 경로를 묘화하였지만, 예측 경로의 묘화는 전술한 묘화에 한정되는 것은 아니다. 예를 들면, 빌딩, 점포, 공원을 통과하는 예측 경로를 그릴 수 있다. 이 경우, 건물이나 공원의 겨냥도를 표시할 수 있으며, 건물이나 공원 내부에서 예측 경로가 어떻게 이동할지를 표시하기 위해 상세 예측 경로를 묘화할 수 있다.
제어부(12)는, 예측 이동 경로선을 영상으로서 촬상하는 카메라(2)를, 기억부(11)를 거쳐 메모리(102)에 보존된 카메라 맵(도 5)을 기초로 매칭 계산을 실시하고, 선택하였지만, 제어부(12)는, 복수의 카메라(2)를 선택하는 동안, 카메라(2)의 카메라 촬상 파라미터를 변화시켜, 카메라 촬상 파라미터를 변화시켰을 경우의 예측 영상으로부터, 예측 이동 경로선을 촬상할 수 있다.
추미 대상물을 특정하는 정보로서 머리 부분의 특징량을 사용할 수 있다. 머리 부분 특징량 이외에, 얼굴, 인체 골격, 복장 또는 걸음걸이의 특징량을 사용할 수 있다.
표시하는 영역 맵은 3차원(3D) 맵이어도 된다.
또한, 관리 서버(1)의 기능은, 예를 들면, 복수의 클라우드 컴퓨터에 의해 구현될 수 있다.
제어부(12)는, 복수의 카메라(2)를 선택하고, 선택한 복수의 카메라(2)에 의해 촬영된 영상을 사용해서 추미 처리를 실행하고 있지만, 이 처리는 이와 같은 예에 한정되는 것은 아니다. 관리 서버(1)의 제어부(12)는 복수의 카메라(2)에 의해 촬영된 영상을 합성하여 복수의 합성 영상을 생성한 후, 생성한 복수의 영상을 선택 및 지정해서 사용할 수 있다.
이상, 전술한 각 실시형태에 따른 정보처리에서는, 추미 설정 개시시에 관리 화면을 관찰함으로써 추미 대상을 결정하는 조작을 행하지 않고, 추미 대상의 피사체가 감시 카메라에 나타나기 전에 추미 설정을 행할 수 있다. 그 때문에, 추미시의 카메라 선택이 보다 간편한 피사체 추미의 설정 방법을 제공할 수 있다.
기타 실시형태
본 발명의 실시형태는, 본 발명의 전술한 실시형태(들)의 1개 이상의 기능을 수행하기 위해 기억매체('비일시적인 컴퓨터 판독가능한 기억매체'로서 더 상세히 언급해도 된다)에 기록된 컴퓨터 실행가능한 명령(예를 들어, 1개 이상의 프로그램)을 판독하여 실행하거나 및/또는 전술한 실시예(들)의 1개 이상의 기능을 수행하는 1개 이상의 회로(예를 들어, 주문형 반도체 회로(ASIC)를 포함하는 시스템 또는 장치의 컴퓨터나, 예를 들면, 전술한 실시형태(들)의 1개 이상의 기능을 수행하기 위해 기억매체로부터 컴퓨터 실행가능한 명령을 판독하여 실행함으로써, 시스템 또는 장치의 컴퓨터에 의해 수행되는 방법에 의해 구현될 수도 있다. 컴퓨터는, 1개 이상의 중앙처리장치(CPU), 마이크로 처리장치(MPU) 또는 기타 회로를 구비하고, 별개의 컴퓨터들의 네트워크 또는 별개의 컴퓨터 프로세서들을 구비해도 된다. 컴퓨터 실행가능한 명령은, 예를 들어, 기억매체의 네트워크로부터 컴퓨터로 주어져도 된다. 기록매체는, 예를 들면, 1개 이상의 하드디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 분산 컴퓨팅 시스템의 스토리지, 광 디스크(콤팩트 디스크(CD), 디지털 다기능 디스크(DVD), 또는 블루레이 디스크(BD)TM 등), 플래시 메모리소자, 메모리 카드 등을 구비해도 된다.
본 발명은, 상기한 실시형태의 1개 이상의 기능을 실현하는 프로그램을, 네트워크 또는 기억매체를 개입하여 시스템 혹은 장치에 공급하고, 그 시스템 혹은 장치의 컴퓨터에 있어서 1개 이상의 프로세서가 프로그램을 읽어 실행하는 처리에서도 실행가능하다. 또한, 1개 이상의 기능을 실현하는 회로(예를 들어, ASIC)에 의해서도 실행가능하다.
예시적인 실시형태들을 참조하여 본 발명을 설명하였지만, 본 발명이 이러한 실시형태에 한정되지 않는다는 것은 자명하다. 이하의 청구범위의 보호범위는 가장 넓게 해석되어 모든 변형, 동등물 구조 및 기능을 포괄하여야 한다.

Claims (19)

  1. 경로에 관한 정보의 입력을 수신하도록 구성된 수신부와,
    수신한 경로에 관한 정보에 근거하여, 복수의 촬상장치로부터 상기 경로에 대응하는 촬상장치를 선택하도록 구성된 선택부와,
    해당 선택한 촬상장치에 의해 촬상된 영상에 포함되는 피사체를 추미하도록 구성된 처리부를 구비한 정보 처리장치.
  2. 제 1항에 있어서,
    감시 대상 영역에 관한 영역 맵을 생성하도록 구성된 생성부와,
    생성된 상기 영역 맵을 표시하도록 구성된 표시부를 더 구비하고,
    상기 수신부는, 표시된 상기 영역 맵 상의 추미 대상의 피사체의 경로에 관한 정보의 입력을 수신하는 정보 처리장치.
  3. 제 1항에 있어서,
    감시 대상 영역에 관한 영역 맵을 생성하도록 구성된 제1 생성부와,
    생성된 상기 영역 맵에 카메라 배치 정보를 중첩한 카메라 맵을 생성하도록 구성되된 제2 생성부와,
    생성된 상기 카메라 맵을 표시하도록 구성된 표시부를 더 구비하고,
    상기 수신부는, 표시된 상기 카메라 맵 상의 추미 대상의 피사체의 경로에 관한 정보의 입력을 수신하는 정보 처리장치.
  4. 제 1항에 있어서,
    상기 수신부는, 상기 피사체의 경로에 관한 정보로서, 상기 경로의 기점 및 종점인 2개의 지점의 입력을 수신하고,
    상기 선택부는, 수신되고 입력된 상기 2개의 지점에 근거하여 상기 피사체의 경로로서 상기 2개의 지점 사이의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리장치.
  5. 제 1항에 있어서,
    상기 수신부는, 상기 피사체의 경로에 관한 정보로서, 상기 경로의 지시점의 입력을 수신하고,
    상기 선택부는, 복수의 경로의 지시점의 수신된 입력에 근거하여 추미 대상의 상기 피사체의 경로에 대응하는 촬상장치를 선택하는 정보 처리장치.
  6. 제 5항에 있어서,
    상기 선택부는, 입력된 지시점에 근거한 예측 경로와 이전의 경로 사이의 비교에 근거하여 추미 대상의 상기 피사체의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리장치.
  7. 제 1항에 있어서,
    상기 수신부는, 상기 피사체의 경로에 관한 정보로서, 상기 경로의 프리핸드의 입력을 수신하고,
    상기 선택부는, 수신된 상기 경로의 프리핸드의 입력에 근거하여 상기 피사체의 경로에 대응하는 촬상장치를 선택하는 정보 처리장치.
  8. 제 7항에 있어서,
    상기 선택부는, 상기 프리핸드의 입력에 근거한 예측 경로와 이전의 경로 사이의 비교에 근거하여 상기 피사체의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리장치.
  9. 제 7항에 있어서,
    상기 선택부는, 상기 프리핸드의 입력에 근거한 예측 경로와 상기 프리핸드의 입력중에 수정 또는 변경된 경로들로부터 묘화 상태에 근거하여 선택된 경로 사이의 비교에 근거하여 상기 피사체의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리장치.
  10. 경로에 관한 정보의 입력을 수신하는 단계와,
    수신된 정보에 근거하여, 복수의 촬상장치로부터 상기 경로에 대응하는 촬상장치를 선택하는 단계와,
    해당 선택한 촬상장치에 의해 촬상된 영상에 포함되는 피사체를 추미하는 단게를 포함하는 정보 처리방법.
  11. 제 10항에 있어서,
    감시 대상 영역에 관한 영역 맵을 생성하는 단계와,
    생성된 상기 영역 맵을 표시하는 단게를 더 포함하고,
    상기 수신단계는 표시된 상기 영역 맵 상의 추미 대상의 피사체의 경로에 관한 정보의 입력을 수신하는 정보 처리방법.
  12. 제 10항에 있어서,
    감시 대상 영역에 관한 영역 맵을 생성하는 단계와.
    생성된 상기 영역 맵에 카메라 배치 정보를 중첩한 카메라 맵을 생성하는 단계와,
    생성된 상기 카메라 맵을 표시하는 단계를 더 포함하고,
    상기 수신단계는 표시된 상기 카메라 맵 상의 추미 대상의 피사체의 경로에 관한 정보의 입력을 수신하는 정보 처리방법.
  13. 제 10항에 있어서,
    상기 수신단계는, 상기 피사체의 경로에 관한 정보로서, 상기 경로의 기점 및 종점인 2개의 지점의 입력을 수신하고,
    상기 선택단계는, 수신되고 입력된 상기 2개의 지점에 근거하여 상기 피사체의 경로로서 상기 2개의 지점 사이의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리방법.
  14. 제 10항에 있어서,
    상기 수신단계는, 상기 피사체의 경로에 관한 정보로서, 상기 경로의 지시점의 입력을 수신하고,
    상기 선택단계는, 복수의 경로의 지시점의 수신된 입력에 근거하여 추미 대상의 상기 피사체의 경로에 대응하는 촬상장치를 선택하는 정보 처리방법.
  15. 제 14항에 있어서,
    상기 선택단계는, 입력된 지시점에 근거한 예측 경로와 이전의 경로 사이의 비교에 근거하여 추미 대상의 상기 피사체의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리방법.
  16. 제 10항에 있어서,
    상기 수신단계는, 상기 피사체의 경로에 관한 정보로서, 상기 경로의 프리핸드의 입력을 수신하고,
    상기 선택단계는, 수신된 상기 경로의 프리핸드의 입력에 근거하여 상기 피사체의 경로에 대응하는 촬상장치를 선택하는 정보 처리방법.
  17. 제 16항에 있어서,
    상기 선택단계는, 상기 프리핸드의 입력에 근거한 예측 경로와 이전의 경로 사이의 비교에 근거하여 상기 피사체의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리방법.
  18. 제 16항에 있어서,
    상기 선택단계는, 상기 프리핸드의 입력에 근거한 예측 경로와 상기 프리핸드의 입력중에 수정 또는 변경된 경로들로부터 묘화 상태에 근거하여 선택된 경로 사이의 비교에 근거하여 상기 피사체의 복수의 경로에 대응하는 적어도 한 개의 촬상장치를 선택하는 정보 처리방법.
  19. 컴퓨터에,
    경로에 관한 정보의 입력을 수신하는 단계와,
    수신된 정보에 근거하여, 복수의 촬상장치로부터 상기 경로에 대응하는 촬상장치를 선택하는 단계와,
    해당 선택한 촬상장치에 의해 촬상된 영상에 포함되는 피사체를 추미하는 단계를 포함하는 방법을 실행하게 하는 프로그램을 기억한 비일시적인 기억매체.
KR1020170123863A 2016-09-30 2017-09-26 정보 처리장치, 정보 처리방법 및 기억매체 KR20180036562A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2016-193702 2016-09-30
JP2016193702A JP6740074B2 (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
KR20180036562A true KR20180036562A (ko) 2018-04-09

Family

ID=61623406

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170123863A KR20180036562A (ko) 2016-09-30 2017-09-26 정보 처리장치, 정보 처리방법 및 기억매체

Country Status (5)

Country Link
US (1) US20180097991A1 (ko)
JP (1) JP6740074B2 (ko)
KR (1) KR20180036562A (ko)
CN (1) CN107888872A (ko)
DE (1) DE102017122554A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828708B2 (ja) * 2018-03-29 2021-02-10 京セラドキュメントソリューションズ株式会社 制御装置、監視システム、及び監視カメラ制御方法
JP7374632B2 (ja) * 2019-07-09 2023-11-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4195991B2 (ja) * 2003-06-18 2008-12-17 パナソニック株式会社 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2005086626A (ja) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd 広域監視装置
JP4759988B2 (ja) * 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
CN101995256A (zh) * 2009-08-11 2011-03-30 宏达国际电子股份有限公司 行程规划方法、装置及所使用的计算机程序产品
CN102223473A (zh) * 2010-04-16 2011-10-19 鸿富锦精密工业(深圳)有限公司 摄像装置及利用其动态追踪特定物体的方法
CN102263933B (zh) * 2010-05-25 2013-04-10 浙江宇视科技有限公司 智能监控的实现方法和装置
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8743205B2 (en) * 2011-08-10 2014-06-03 Nice Systems Ltd. System and method for semantic video content analysis
US9532095B2 (en) * 2012-11-29 2016-12-27 Fanvision Entertainment Llc Mobile device with smart gestures
JP2015002553A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 情報処理システムおよびその制御方法
JP5506989B1 (ja) 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6270410B2 (ja) * 2013-10-24 2018-01-31 キヤノン株式会社 サーバ装置、情報処理方法及びプログラム
JP2015094977A (ja) * 2013-11-08 2015-05-18 株式会社東芝 電子機器及び方法
CN103955494B (zh) * 2014-04-18 2017-11-03 大唐联智信息技术有限公司 目标对象的搜索方法、装置及终端
TWI578781B (zh) * 2014-10-21 2017-04-11 群暉科技股份有限公司 藉助於全景地圖來管理一監視系統之方法與裝置
CN105450991A (zh) * 2015-11-17 2016-03-30 浙江宇视科技有限公司 一种追踪方法及装置
US10341617B2 (en) * 2016-03-23 2019-07-02 Purdue Research Foundation Public safety camera identification and monitoring system and method

Also Published As

Publication number Publication date
JP2018056915A (ja) 2018-04-05
DE102017122554A1 (de) 2018-04-05
JP6740074B2 (ja) 2020-08-12
CN107888872A (zh) 2018-04-06
US20180097991A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
Martin-Martin et al. Jrdb: A dataset and benchmark of egocentric robot visual perception of humans in built environments
Ahmetovic et al. Achieving practical and accurate indoor navigation for people with visual impairments
Chen et al. A proactive workers' safety risk evaluation framework based on position and posture data fusion
JP6918523B2 (ja) 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
US20170273552A1 (en) Visual disability detection system using virtual reality
US8504292B1 (en) Indoor localization based on ultrasound sensors
Fusco et al. Indoor localization for visually impaired travelers using computer vision on a smartphone
JPWO2019038968A1 (ja) 店舗装置、店舗システム、店舗管理方法、プログラム
JP2016224919A (ja) データ閲覧装置、データ閲覧方法、及びプログラム
Park et al. The usability of Unmanned Aerial Vehicles (UAVs) for pedestrian observation
RU2742582C1 (ru) Система и способ отображения движущихся объектов на карте местности
CN112668525A (zh) 一种人流量的计数方法、装置、电子设备及存储介质
JPWO2020161823A1 (ja) 光ファイバセンシングシステム、監視装置、監視方法、及びプログラム
KR20210058659A (ko) 모바일 디바이스를 이용한 보행도로 데이터 구축 방법 및 그 시스템
JP2004298285A (ja) 歩行状態・歩行者属性判定装置および判定方法
KR20180036562A (ko) 정보 처리장치, 정보 처리방법 및 기억매체
CN109117882A (zh) 获取用户轨迹的方法、装置、系统和存储介质
JP2014164374A (ja) 情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラム
JP6943183B2 (ja) 位置特定装置、位置特定方法、位置特定プログラムおよびカメラ装置
Wu et al. Accuracy evaluation of RBC velocity measurement in nail-fold capillaries
Ettehadieh Systematic parameter optimization and application of automated tracking in pedestrian-dominant situations
KR102477995B1 (ko) 장애인용 지도정보 수집/분석장치
RU2569454C1 (ru) Способ автоматизированного составления схемы дорожно-транспортного происшествия
Boltes et al. Gathering of data under laboratory conditions for the deep analysis of pedestrian dynamics in crowds

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application