JP7027171B2 - Information processing equipment, information processing methods and programs - Google Patents

Information processing equipment, information processing methods and programs Download PDF

Info

Publication number
JP7027171B2
JP7027171B2 JP2018001912A JP2018001912A JP7027171B2 JP 7027171 B2 JP7027171 B2 JP 7027171B2 JP 2018001912 A JP2018001912 A JP 2018001912A JP 2018001912 A JP2018001912 A JP 2018001912A JP 7027171 B2 JP7027171 B2 JP 7027171B2
Authority
JP
Japan
Prior art keywords
matrix
information processing
image
processing apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001912A
Other languages
Japanese (ja)
Other versions
JP2019121987A (en
Inventor
孝志 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018001912A priority Critical patent/JP7027171B2/en
Publication of JP2019121987A publication Critical patent/JP2019121987A/en
Application granted granted Critical
Publication of JP7027171B2 publication Critical patent/JP7027171B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and a program.

近年、撮像装置により撮像された画像を解析して行列の待ち時間を予測する技術が注目されている。このような技術を用いることによって、行列の様子や待ち時間のデータを収集することができる。また、収集したデータを用いて、行列を形成する利用者に待ち時間を案内することもできる。
特許文献1には、撮像装置により撮像された画像を解析して待ち行列を識別し、模式化した待ち行列を表示することで、利用者が行列の様子を容易に確認できるようにするシステムが開示されている。
In recent years, a technique for predicting the waiting time of a matrix by analyzing an image captured by an imaging device has attracted attention. By using such a technique, it is possible to collect data on the state of the matrix and the waiting time. In addition, the collected data can be used to guide the waiting time to the users forming the matrix.
Patent Document 1 describes a system that analyzes an image captured by an image pickup device, identifies a queue, and displays a schematic queue so that a user can easily check the state of the queue. It has been disclosed.

特許第4402505号公報Japanese Patent No. 4402505

しかしながら、行列が複数の撮像装置の撮像範囲に跨って存在する場合、各々の画像に部分的に撮像された行列を確認することになり、利用者は行列全体の様子を把握することが困難になる。上記特許文献1に記載の技術では、この点については全く考慮されていない。
そこで、本発明は、複数の撮像手段の撮像範囲に跨って存在する行列を、ユーザが容易に確認できるようにすることを課題としている。
However, when the matrix extends over the imaging range of a plurality of imaging devices, it is necessary to confirm the matrix partially captured in each image, and it is difficult for the user to grasp the state of the entire matrix. Become. The technique described in Patent Document 1 does not take this point into consideration at all.
Therefore, it is an object of the present invention to make it possible for a user to easily confirm a matrix existing over an imaging range of a plurality of imaging means.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、複数の撮像手段によってそれぞれ撮像された画像から、複数の物体を含む行列領域をそれぞれ抽出する抽出手段と、前記抽出手段により抽出された行列領域に関する情報を取得する取得手段と、前記抽出手段により抽出された行列領域のうち関連性を有する複数の行列領域を、前記取得手段により取得された情報に応じた表示方法で表示装置に表示させる表示制御手段と、を備える。 In order to solve the above problems, one aspect of the information processing apparatus according to the present invention is an extraction means for extracting a matrix region containing a plurality of objects from images captured by a plurality of imaging means, and the extraction means. The acquisition means for acquiring information about the matrix area extracted by the extraction means and a plurality of related matrix areas among the matrix areas extracted by the extraction means are displayed by a display method according to the information acquired by the acquisition means. It is provided with a display control means for displaying on a display device.

本発明によれば、複数の撮像手段の撮像範囲に跨って存在する行列を、ユーザが容易に確認できるようにすることができる。 According to the present invention, it is possible for the user to easily confirm the matrix existing over the imaging range of the plurality of imaging means.

本実施形態における表示システムの構成例を示す図である。It is a figure which shows the configuration example of the display system in this embodiment. 情報処理装置における表示制御処理手順を示すフローチャートである。It is a flowchart which shows the display control processing procedure in an information processing apparatus. 複数の撮像装置によって撮像される画像の一例である。This is an example of an image captured by a plurality of image pickup devices. 行列領域を表示する表示画面の一例である。This is an example of a display screen that displays a matrix area.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
It should be noted that the embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or modified depending on the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention is described below. Is not limited to the embodiment of the above.

(第一の実施形態)
図1は、本実施形態における表示システム1000の構成例である。
本実施形態における表示システム1000は、複数の撮像装置によって撮像された画像を解析し、解析結果をユーザに提示するシステムである。具体的には、表示システム1000は、複数の撮像装置によって撮像された画像から、それぞれ複数の物体(本実施形態では、人体)を含む行列領域を抽出する。そして、表示システム100は、抽出された行列領域のうち、関連性を有する複数の行列領域を、行列領域の情報(以下、「行列情報」ともいう。)に応じた表示方法で表示する。ここで、関連性を有する複数の行列領域は、複数の撮像装置の撮像領域に跨って存在する同じ行列を構成する行列領域であり、表示システム100は、複数の撮像装置の撮像領域に跨って存在する行列を、ユーザが容易に確認できるように表示する。
なお、本実施形態では、行列を形成する物体を人体として説明するが、当該物体は、例えば車や動物などであってもよい。
(First embodiment)
FIG. 1 is a configuration example of the display system 1000 according to the present embodiment.
The display system 1000 in the present embodiment is a system that analyzes images captured by a plurality of image pickup devices and presents the analysis results to the user. Specifically, the display system 1000 extracts a matrix region including a plurality of objects (human body in the present embodiment) from images captured by a plurality of image pickup devices. Then, the display system 100 displays a plurality of related matrix areas among the extracted matrix areas by a display method according to the information of the matrix area (hereinafter, also referred to as "matrix information"). Here, the plurality of related matrix regions are matrix regions constituting the same matrix existing across the imaging regions of the plurality of imaging devices, and the display system 100 straddles the imaging regions of the plurality of imaging devices. Display the existing matrix so that the user can easily see it.
In the present embodiment, the object forming the matrix is described as a human body, but the object may be, for example, a car or an animal.

図1に示すように、表示システム1000は、複数の撮像装置100Aおよび100Bと、情報処理装置200と、を備える。撮像装置100Aおよび100Bと情報処理装置200とは、ネットワーク300によって相互に通信可能に接続されている。
撮像装置100Aおよび100Bは、画像を撮像するカメラである。撮像装置100Aおよび100Bは、例えば、監視に用いられる監視カメラなどとすることができる。撮像装置100Aおよび100Bは、ネットワーク300を介して撮像した画像を情報処理装置200へ送信する。
As shown in FIG. 1, the display system 1000 includes a plurality of image pickup devices 100A and 100B, and an information processing device 200. The image pickup devices 100A and 100B and the information processing device 200 are connected to each other by a network 300 so as to be communicable with each other.
The image pickup devices 100A and 100B are cameras that capture images. The image pickup devices 100A and 100B can be, for example, a surveillance camera used for surveillance. The image pickup devices 100A and 100B transmit the images captured via the network 300 to the information processing device 200.

撮像装置100Aおよび100Bは、壁面や天井等に設置することができ、1枚以上の画像を含む映像を撮像するカメラであってもよい。また、撮像装置100Aおよび100Bは、PoE(Power Over Ethernet(登録商標))に対応していてもよいし、LANケーブル等を介して電力が供給される構成でもよい。さらに、図1では、2台の撮像装置100A、100Bがネットワーク300に接続されているが、ネットワーク300には2台以上の撮像装置が接続されていればよく、接続台数は図1に示す数に限定されない。 The image pickup devices 100A and 100B can be installed on a wall surface, a ceiling, or the like, and may be cameras that capture an image including one or more images. Further, the image pickup devices 100A and 100B may be compatible with PoE (Power Over Ethernet (registered trademark)), or may be configured such that power is supplied via a LAN cable or the like. Further, in FIG. 1, two image pickup devices 100A and 100B are connected to the network 300, but it is sufficient that two or more image pickup devices are connected to the network 300, and the number of connected images is the number shown in FIG. Not limited to.

次に、撮像装置100Aの構成について説明する。本実施形態において、撮像装置100Aと撮像装置100Bとは同様の構成を有するため、以下、撮像装置100Aの構成についてのみ説明する。
撮像装置100Aは、撮像部101Aと、通信部102Aと、CPU103Aと、記憶部104Aと、を備える。
撮像部101Aは、撮像光学系を構成するレンズ群及び撮像素子を備える。レンズ群は、入射光を結像するための光学レンズを有し、入射光を撮像素子に集光させる。撮像素子は、光をアナログ画像信号に変換する素子であり、例えば、CCD、CMOS(Complementary Metal Oxide Semiconductor)等で構成することができる。撮像部101Aは、撮像素子から得られるアナログ画像信号に画像処理を施し、信号を符号化して符号化画像信号を出力する。
Next, the configuration of the image pickup apparatus 100A will be described. In the present embodiment, since the image pickup apparatus 100A and the image pickup apparatus 100B have the same configuration, only the configuration of the image pickup apparatus 100A will be described below.
The image pickup apparatus 100A includes an image pickup unit 101A, a communication unit 102A, a CPU 103A, and a storage unit 104A.
The image pickup unit 101A includes a lens group and an image pickup element that constitute an image pickup optical system. The lens group has an optical lens for forming an image of incident light, and the incident light is focused on an image pickup device. The image pickup device is an element that converts light into an analog image signal, and can be configured by, for example, a CCD, a CMOS (Complementary Metal Oxide Semiconductor), or the like. The image pickup unit 101A performs image processing on the analog image signal obtained from the image pickup element, encodes the signal, and outputs the coded image signal.

通信部102Aは、情報処理装置200を含む外部機器との間の無線または有線の通信インタフェースを提供する。すなわち、通信部102Aは、無線通信により情報処理装置200等の外部機器と通信することができる。この無線通信は、Bluetooth(登録商標)、Z-Wave(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide Band)等の無線PAN(Personal Area Network)を含む。また、Wi-Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。さらに、LTE/3G等の無線WAN(Wide Area Network)を含む。
また、通信部102Aは、有線のLANにより情報処理装置200等の外部機器と通信してもよい。この有線LANとしては、例えば、Ethernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等の構成が挙げられる。なお、通信部102Aは、外部機器と通信が可能であればよく、通信の規格、規模、構成は上記に限定されない。
The communication unit 102A provides a wireless or wired communication interface with an external device including the information processing device 200. That is, the communication unit 102A can communicate with an external device such as the information processing device 200 by wireless communication. This wireless communication includes a wireless PAN (Personal Area Network) such as Bluetooth®, Z-Wave®, ZigBee®, UWB (Ultra Wide Band) and the like. Further, it includes a wireless LAN (Local Area Network) such as Wi-Fi (Wi-Filess Fidelity) (registered trademark) and a wireless MAN (Metropolitan Area Network) such as WiMAX (registered trademark). Further, it includes a wireless WAN (Wide Area Network) such as LTE / 3G.
Further, the communication unit 102A may communicate with an external device such as the information processing device 200 by a wired LAN. Examples of the wired LAN include configurations of a plurality of routers, switches, cables, and the like that satisfy communication standards such as Ethernet (registered trademark). The communication unit 102A may be capable of communicating with an external device, and the communication standard, scale, and configuration are not limited to the above.

CPU103Aは、撮像装置100Aの各部における演算や論理判断等の処理を行う演算処理部であり、システムバスを介して各構成部(101A、102Aおよび104A)を制御する。撮像装置100Aの機能や処理は、CPU103Aが記憶部104Aに格納されているプログラムを読み出し、このプログラムを実行することにより実現されてもよい。
記憶部104Aは、EEPROM(Electrically Erasable Programmable Read Only Memory)等の電気的に消去可能な不揮発性メモリにより構成される。また、記憶部104Aは、CPU103Aの主メモリ、ワークメモリとして機能するRAM、外部メモリ、着脱可能な記憶媒体等を含んでもよい。この記憶部104Aには、CPU103Aが使用する各種情報が記録される。記憶部104Aには、例えば、撮像部101Aにより撮像された画像を記憶してもよい。
The CPU 103A is a calculation processing unit that performs processing such as calculation and logic determination in each part of the image pickup apparatus 100A, and controls each component unit (101A, 102A, 104A) via a system bus. The functions and processes of the image pickup apparatus 100A may be realized by the CPU 103A reading a program stored in the storage unit 104A and executing this program.
The storage unit 104A is composed of an electrically erasable non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read Only Memory). Further, the storage unit 104A may include a main memory of the CPU 103A, a RAM functioning as a work memory, an external memory, a detachable storage medium, and the like. Various information used by the CPU 103A is recorded in the storage unit 104A. The storage unit 104A may store, for example, an image captured by the image pickup unit 101A.

次に、情報処理装置200の構成について説明する。
情報処理装置200は、例えば、PC(Personal Computer)であってもよいし、タブレット端末、スマートフォン等の携帯用端末であってもよい。
情報処理装置200は、通信部201、CPU202、記憶部203、表示部204、および入力部205を備える。また、情報処理装置200は、行列領域設定部206、行列情報管理部207、行列領域抽出部208、行列合成判断部209および行列領域合成部210を備える。
Next, the configuration of the information processing apparatus 200 will be described.
The information processing device 200 may be, for example, a PC (Personal Computer) or a portable terminal such as a tablet terminal or a smartphone.
The information processing device 200 includes a communication unit 201, a CPU 202, a storage unit 203, a display unit 204, and an input unit 205. Further, the information processing apparatus 200 includes a matrix area setting unit 206, a matrix information management unit 207, a matrix area extraction unit 208, a matrix synthesis determination unit 209, and a matrix area synthesis unit 210.

通信部201は、上述した撮像装置100Aの通信部102Aと同様に、撮像装置100Aおよび100Bを含む外部機器との間の無線または有線の通信インタフェースを提供する。通信部201Aは、ネットワーク300を介して撮像装置100A、100Bから画像を受信するとともに、撮像装置100A、100Bとの間でそれぞれ各種情報の通信を行う。
CPU202は、上述した撮像装置100AのCPU103Aと同様に、情報処理装置200の各部における演算や論理判断等の処理を行う演算処理部であり、システムバスを介して各構成部(201、203~210)を制御する。
記憶部203は、上述した撮像装置100Aの記憶部104Aと同様に、EEPROM等の電気的に消去可能な不揮発性メモリにより構成される。また、記憶部203は、CPU202の主メモリ、ワークメモリとして機能するRAM、外部メモリ、着脱可能な記憶媒体等を含んでもよい。
The communication unit 201 provides a wireless or wired communication interface with an external device including the image pickup devices 100A and 100B, similarly to the communication unit 102A of the image pickup device 100A described above. The communication unit 201A receives images from the image pickup devices 100A and 100B via the network 300, and communicates various information with the image pickup devices 100A and 100B, respectively.
The CPU 202 is a calculation processing unit that performs processing such as calculation and logic determination in each part of the information processing device 200, like the CPU 103A of the image pickup device 100A described above, and each component unit (201, 203 to 210) via a system bus. ) Is controlled.
The storage unit 203 is configured by an electrically erasable non-volatile memory such as an EEPROM, similarly to the storage unit 104A of the image pickup apparatus 100A described above. Further, the storage unit 203 may include a main memory of the CPU 202, a RAM functioning as a work memory, an external memory, a removable storage medium, and the like.

表示部204は、撮像装置100A、100Bから受信した画像を表示したり、後述する行列領域や行列情報を表示したりする。なお、本実施形態では、情報処理装置200が表示部204を備える構成について説明するが、上記構成に限定されるものではない。例えば、情報処理装置200は、表示部204を備えず、外部の表示装置(クライアント装置)に画像を表示させる表示制御を行ってもよい。
入力部205は、マウス入力、キーボード入力、タッチ入力等の各種ユーザインタフェース(UI)を介してユーザからの指示入力を受け付ける。入力部205に、例えば撮像装置100Aの設定を変更する指示が入力されると、CPU202は、入力された情報に基づいて撮像装置100Aの設定を変更するための制御命令を生成し、通信部201を介して撮像装置100Aへ生成された制御命令を出力する。このように、入力部205へ入力された情報に基づいて、情報処理装置200は、撮像装置100A、100Bの設定を適宜変更することができる。
The display unit 204 displays images received from the image pickup devices 100A and 100B, and displays a matrix area and matrix information described later. In this embodiment, the configuration in which the information processing apparatus 200 includes the display unit 204 will be described, but the configuration is not limited to the above configuration. For example, the information processing device 200 may not include the display unit 204 and may perform display control to display an image on an external display device (client device).
The input unit 205 receives instruction input from the user via various user interfaces (UI) such as mouse input, keyboard input, and touch input. When, for example, an instruction to change the setting of the image pickup apparatus 100A is input to the input unit 205, the CPU 202 generates a control command for changing the setting of the image pickup apparatus 100A based on the input information, and the communication unit 201 The control command generated to the image pickup apparatus 100A is output to the image pickup apparatus 100A. In this way, the information processing device 200 can appropriately change the settings of the image pickup devices 100A and 100B based on the information input to the input unit 205.

行列領域設定部206は、撮像装置100A、100Bにより撮像された画像から行列領域を設定する。行列領域設定部206は、ユーザが指定した行列領域に関する情報をもとに、行列領域を設定することができる。この場合、ユーザは、表示部204に表示された撮像装置100A、100Bの画像を確認しながらマウス等の各種UIを操作して、画像内における行列領域を指定する。そして、行列領域設定部206は、入力部205が受け付けた上記のユーザの指定をもとに行列領域を設定する。
なお、行列領域設定部206は、撮像装置100A、100Bにより撮像された画像を解析し、画像に存在する人体の移動速度や、人体の密集度の高い領域を検出することで、行列領域を設定してもよい。その際、行列領域の設定には、任意のアルゴリズムを用いることができる。
The matrix area setting unit 206 sets the matrix area from the images captured by the image pickup devices 100A and 100B. The matrix area setting unit 206 can set the matrix area based on the information about the matrix area specified by the user. In this case, the user operates various UIs such as a mouse while checking the images of the image pickup devices 100A and 100B displayed on the display unit 204 to specify a matrix area in the image. Then, the matrix area setting unit 206 sets the matrix area based on the above-mentioned user's designation accepted by the input unit 205.
The matrix area setting unit 206 analyzes the images captured by the image pickup devices 100A and 100B, and sets the matrix area by detecting the moving speed of the human body existing in the image and the region where the human body is highly dense. You may. At that time, any algorithm can be used to set the matrix area.

行列情報管理部207は、行列領域設定部206により設定された行列領域に関する情報(行列情報)を管理する。行列情報は、行列の識別番号207a、行列の位置情報207b、行列の方向と長さ207cおよび行列の待ち時間207dの少なくとも1つを含む。以下、行列情報管理部207が管理する行列情報について具体的に説明する。
行列の識別番号207aは、複数の撮像装置が撮像している行列を区別するための番号であり、関連性を有する行列領域には同じ識別番号が付与される。ここで、関連性を有する行列領域とは、同じ行列を構成する行列領域である。行列の識別番号207aは、ユーザが、画像の行列領域を指定する際に、撮像装置100A、100Bの画像を確認しながら設定してもよい。また、後述する行列合成判断部209が、複数の画像間における対応点を検出した際に、関連性を有する行列領域同士で同じ識別番号を付与するようにしてもよい。
The matrix information management unit 207 manages information (matrix information) regarding the matrix area set by the matrix area setting unit 206. The matrix information includes at least one of a matrix identification number 207a, a matrix position information 207b, a matrix direction and length 207c, and a matrix latency 207d. Hereinafter, the matrix information managed by the matrix information management unit 207 will be specifically described.
The matrix identification number 207a is a number for distinguishing a matrix imaged by a plurality of image pickup devices, and the same identification number is assigned to the related matrix regions. Here, the matrix region having a relationship is a matrix region constituting the same matrix. The matrix identification number 207a may be set by the user while checking the images of the image pickup devices 100A and 100B when designating the matrix area of the image. Further, when the matrix synthesis determination unit 209 described later detects a corresponding point between a plurality of images, the same identification number may be assigned to the matrix regions having a relationship with each other.

行列の位置情報207bは、行列領域設定部206により設定された行列領域の位置に関する情報である。行列の位置情報207bは、撮像装置100A、100Bの位置と、撮像装置100A、100Bの撮像方向および撮像画角とに基づいて決定することができる。ここで、撮像装置100A、100Bの位置情報は、不図示のGPS(Global Positioning System)により取得することができる。なお、撮像装置100A、100Bの位置情報を取得する方法は、GPSを用いる方法に限定されるものではなく、屋内測位技術などの測位技術によって取得する方法であってもよい。 The matrix position information 207b is information regarding the position of the matrix area set by the matrix area setting unit 206. The position information 207b of the matrix can be determined based on the positions of the image pickup devices 100A and 100B and the image pickup direction and the image pickup angle of view of the image pickup devices 100A and 100B. Here, the position information of the image pickup devices 100A and 100B can be acquired by GPS (Global Positioning System) (not shown). The method of acquiring the position information of the image pickup devices 100A and 100B is not limited to the method using GPS, and may be a method of acquiring by a positioning technique such as an indoor positioning technique.

行列の方向と長さ207cは、行列領域設定部206により設定された行列領域の方向と長さに関する情報である。行列の方向は、行列領域を形成する人体の動き方向とすることができる。人体の動き方向は、行列領域を形成する人体と同じ人体を異なるフレームで検出し、当該人体を追跡することにより検出することができる。例えば、人体に含まれる色のヒストグラムの類似度をもとに人体を追跡し、人体の動き方向を検出すればよい。行列の長さは、行列領域を形成する人体の数をもとに計測することができる。
行列の待ち時間207dは、行列領域設定部206により設定された行列領域を形成する人の待ち時間である。行列の待ち時間207dは、実際に行列で待っている人の待ち時間を計測して設定してもよいし、待ち行列理論に基づいて待ち時間を推定してもよい。なお、待ち時間を推定する方法には、任意のアルゴリズムを用いることができる。
The matrix direction and length 207c is information regarding the direction and length of the matrix area set by the matrix area setting unit 206. The direction of the matrix can be the direction of movement of the human body forming the matrix region. The direction of movement of the human body can be detected by detecting the same human body forming the matrix region in different frames and tracking the human body. For example, the human body may be tracked based on the similarity of the histograms of colors contained in the human body, and the direction of movement of the human body may be detected. The length of the matrix can be measured based on the number of human bodies forming the matrix region.
The matrix waiting time 207d is the waiting time of a person who forms the matrix area set by the matrix area setting unit 206. The queue waiting time 207d may be set by measuring the waiting time of a person who is actually waiting in the queue, or the waiting time may be estimated based on the queuing theory. Any algorithm can be used as a method for estimating the waiting time.

行列領域抽出部208は、行列領域設定部206により設定された行列領域を、撮像装置100A、100Bによって撮像された画像からそれぞれ切り出す。
行列合成判断部209は、複数の撮像装置によって撮像された画像からそれぞれ抽出された行列領域が、関連性を有する行列領域であるか否か、つまり、同じ行列であるか否かを判断する。例えば、行列合成判断部209は、複数の撮像装置によってそれぞれ撮像された画像ごとに局所特徴量を抽出し、抽出した局所特徴量により画像間の点対応を検出することにより、同じ行列であるかを判断することができる。また、行列合成判断部209は、行列情報管理部207が管理する行列の識別番号207aおよび位置情報207bをもとに、同じ行列であるかを判断してもよい。
The matrix area extraction unit 208 cuts out the matrix area set by the matrix area setting unit 206 from the images captured by the image pickup devices 100A and 100B, respectively.
The matrix synthesis determination unit 209 determines whether or not the matrix regions extracted from the images captured by the plurality of image pickup devices are related matrix regions, that is, whether or not they are the same matrix. For example, the matrix synthesis determination unit 209 extracts a local feature amount for each image captured by a plurality of image pickup devices, and detects a point correspondence between the images by the extracted local feature amount to determine whether the matrix is the same. Can be judged. Further, the matrix synthesis determination unit 209 may determine whether the matrix is the same based on the matrix identification number 207a and the position information 207b managed by the matrix information management unit 207.

行列領域合成部210は、行列領域抽出部208により抽出された行列領域を、行列合成判断部209による判断結果をもとに合成し、合成した画像を表示部204に表示させる表示制御を行う。画像の合成に際し、行列領域合成部210は、局所特徴量による画像間の点対応を検出し、検出した点対応を用いて画像間の移動量および変形量を推定する。そして、行列領域合成部210は、推定した移動量および変形量に従って画像の移動および変形を実行し、画像を合成する。また、本実施形態では、行列領域合成部210は、行列情報に基づいて、行列領域の合成方法を変更する。つまり、行列領域合成部210は、行列情報に基づいて、行列領域の表示方法を変更する。行列領域の合成方法(表示方法)の詳細については後述する。
なお、行列領域の合成方法には、任意のアルゴリズムを用いることができる。また、関連性を有する行列領域で画像間の点対応が存在しない場合は、行列領域の位置情報をもとに、存在しない行列領域を考慮した合成を行ってもよい。
The matrix area synthesis unit 210 synthesizes the matrix area extracted by the matrix area extraction unit 208 based on the determination result by the matrix composition determination unit 209, and performs display control to display the combined image on the display unit 204. When synthesizing images, the matrix area synthesizing unit 210 detects the point correspondence between the images due to the local feature amount, and estimates the movement amount and the deformation amount between the images using the detected point correspondence. Then, the matrix area synthesizing unit 210 moves and transforms the image according to the estimated movement amount and deformation amount, and synthesizes the image. Further, in the present embodiment, the matrix area synthesizing unit 210 changes the method of synthesizing the matrix area based on the matrix information. That is, the matrix area synthesizing unit 210 changes the display method of the matrix area based on the matrix information. The details of the method of synthesizing (displaying) the matrix area will be described later.
Any algorithm can be used as the method for synthesizing the matrix region. Further, when there is no point correspondence between images in the related matrix region, synthesis may be performed in consideration of the non-existing matrix region based on the position information of the matrix region.

以上のように、本実施形態における情報処理装置200は、複数の撮像装置によってそれぞれ撮像された画像から、複数の物体を含む行列領域をそれぞれ抽出し、抽出された行列領域に関する情報(行列情報)を取得する。そして、情報処理装置200は、画像から抽出された行列領域のうち関連性を有する複数の行列領域を、行列情報に応じた表示方法で表示部204に表示させる表示制御を行う。このように、情報処理装置200は、複数の撮像装置によってそれぞれ撮像された関連性を有する行列領域を、関連付けて表示部204へ表示することができる。このため、ユーザは、複数の撮像装置の撮像範囲に跨って存在する行列の様子を容易に確認することができる。 As described above, the information processing apparatus 200 in the present embodiment extracts each matrix region including a plurality of objects from the images captured by the plurality of imaging devices, and information (matrix information) regarding the extracted matrix region. To get. Then, the information processing apparatus 200 performs display control to display a plurality of related matrix areas among the matrix areas extracted from the image on the display unit 204 by a display method according to the matrix information. In this way, the information processing device 200 can display the related matrix regions imaged by the plurality of image pickup devices on the display unit 204 in association with each other. Therefore, the user can easily confirm the state of the matrix existing over the imaging range of the plurality of imaging devices.

次に、本実施形態におけるカメラ100の動作について説明する。
図2は、情報処理装置200が実行する表示制御処理の一例を示すフローチャートである。この図2の処理は、例えば、撮像装置100Aおよび100Bにより画像の撮像が開始されたタイミングで開始される。ただし、図2の処理の開始タイミングは、上記のタイミングに限らない。
情報処理装置200は、CPU202が必要なプログラムを記憶部203から読み出して実行することにより、図2に示す処理を実現することができる。ただし、図1に示す情報処理装置200の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図2の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU202の制御に基づいて動作する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
Next, the operation of the camera 100 in this embodiment will be described.
FIG. 2 is a flowchart showing an example of display control processing executed by the information processing apparatus 200. The process of FIG. 2 is started at the timing when the image pickup is started by, for example, the image pickup devices 100A and 100B. However, the start timing of the process of FIG. 2 is not limited to the above timing.
The information processing apparatus 200 can realize the process shown in FIG. 2 by reading a program required by the CPU 202 from the storage unit 203 and executing the program. However, the processing of FIG. 2 may be realized by operating at least a part of each element of the information processing apparatus 200 shown in FIG. 1 as dedicated hardware. In this case, the dedicated hardware operates under the control of the CPU 202. Hereinafter, the alphabet S shall mean a step in the flowchart.

まずS1において、情報処理装置200は、撮像装置100Aによって撮像された第1の画像を取得する。次にS2では、情報処理装置200は、S1において取得された第1の画像において行列領域が設定されているか否かを判定し、行列領域が設定されてしない場合にはS3に移行し、行列領域が設定されている場合にはS4に移行する。S3では、情報処理装置200は、S1において取得された第1の画像における行列領域の設定を行う。
S4では、情報処理装置200は、撮像装置100Bによって撮像された第2の画像を取得する。ここで、第2の画像は、S1において取得された第1の画像と同じタイミングで撮像された画像とする。次にS5では、情報処理装置200は、S4において取得された第2の画像において行列領域が設定されているか否かを判定し、行列領域が設定されてしない場合にはS6に移行し、行列領域が設定されている場合にはS7に移行する。S6では、情報処理装置200は、S4において取得された第2の画像における行列領域の設定を行う。
First, in S1, the information processing device 200 acquires the first image captured by the image pickup device 100A. Next, in S2, the information processing apparatus 200 determines whether or not the matrix area is set in the first image acquired in S1, and if the matrix area is not set, the information processing apparatus 200 shifts to S3 and the matrix is set. If the area is set, the process proceeds to S4. In S3, the information processing apparatus 200 sets the matrix area in the first image acquired in S1.
In S4, the information processing device 200 acquires a second image captured by the image pickup device 100B. Here, the second image is an image captured at the same timing as the first image acquired in S1. Next, in S5, the information processing apparatus 200 determines whether or not the matrix area is set in the second image acquired in S4, and if the matrix area is not set, the information processing apparatus 200 shifts to S6 and the matrix is set. If the area is set, the process proceeds to S7. In S6, the information processing apparatus 200 sets the matrix area in the second image acquired in S4.

S7では、情報処理装置200は、第1の画像および第2の画像においてそれぞれ設定された行列領域の情報を収集する。次に、S8では、情報処理装置200は、第1の画像および第2の画像に同じ行列を構成する行列領域が存在するか否かを判定し、存在する場合にはS9に移行し、存在しない場合にはS10に移行する。S9では、情報処理装置200は、同じ行列を構成する行列領域を合成する。次に、S10では、情報処理装置200は、行列ごとに合成された画像を表示する。最後に、S11では、情報処理装置200は、撮像装置100A、100Bによって撮像された次の画像が存在するか否かを判定し、次の画像が存在する場合にはS1へ戻り、次の画像が存在しない場合には処理を終了する。 In S7, the information processing apparatus 200 collects information in the matrix region set in the first image and the second image, respectively. Next, in S8, the information processing apparatus 200 determines whether or not a matrix region constituting the same matrix exists in the first image and the second image, and if so, shifts to S9 and exists. If not, the process proceeds to S10. In S9, the information processing apparatus 200 synthesizes a matrix region constituting the same matrix. Next, in S10, the information processing apparatus 200 displays an image synthesized for each matrix. Finally, in S11, the information processing device 200 determines whether or not the next image captured by the image pickup devices 100A and 100B exists, and if the next image exists, returns to S1 and returns to the next image. If does not exist, the process ends.

以下、行列領域の表示例について具体的に説明する。
図3は、複数の撮像装置によって撮像された画像の一例である。この図3において、画像310は、第1の撮像装置によって撮像された画像、画像320は、第2の撮像装置によって撮像された画像、画像330は、第3の撮像装置によって撮像された画像、画像410は、第4の撮像装置によって撮像された画像を示している。
第1の撮像装置および第2の撮像装置は、同じ行列を撮像しており、第1の撮像装置の画像310には、行列領域311と行列領域312とが含まれ、第2の撮像装置の画像320には、行列領域321が含まれる。行列領域311、312および321は、タクシー313を待つ人により形成される同じ待ち行列を構成する。また、第3の撮像装置および第4の撮像装置は、同じ行列を撮像しており、第3の撮像装置の画像330には、行列領域331が含まれ、第4の撮像装置の画像340には、行列領域341が含まれる。行列領域331および341は、タクシー343を待つ人により形成される同じ待ち行列を構成する。第4の撮像装置の画像340には、さらに、行列領域342が含まれる。行列領域342は、タクシー344を待つ人により形成される待ち行列を構成する。
Hereinafter, a display example of the matrix area will be specifically described.
FIG. 3 is an example of an image captured by a plurality of image pickup devices. In FIG. 3, the image 310 is an image captured by the first image pickup device, the image 320 is an image captured by the second image pickup device, and the image 330 is an image captured by the third image pickup device. Image 410 shows an image captured by the fourth image pickup device.
The first image pickup apparatus and the second image pickup apparatus capture the same matrix, and the image 310 of the first image pickup apparatus includes a matrix region 311 and a matrix region 312, and the second image pickup apparatus. The image 320 includes a matrix region 321. Matrix regions 311, 312 and 321 constitute the same queue formed by those waiting for taxi 313. Further, the third image pickup device and the fourth image pickup device capture the same matrix, and the image 330 of the third image pickup device includes the matrix area 331, and the image 340 of the fourth image pickup device includes. Includes matrix area 341. Matrix regions 331 and 341 constitute the same queue formed by those waiting for taxi 343. The image 340 of the fourth image pickup device further includes a matrix region 342. The queue area 342 constitutes a queue formed by people waiting for the taxi 344.

第1~第4の撮像装置により、それぞれ図3に示す画像310~340が撮像された場合、情報処理装置200は、各画像から上記の行列領域を抽出し、抽出された複数の行列領域のうち、同じ行列を構成する行列領域を合成して表示部204へ表示させる。
上述したように、行列領域311、312および321は、同じ行列を構成する行列領域である。したがって、情報処理装置200は、行列領域311、312および321を合成して表示部204に表示させる。同様に、情報処理装置200は、行列領域331および341を合成して表示部204に表示させる。
行列領域の合成に際し、情報処理装置200は、画像間の点対応を用いて単純に複数の行列領域を合成してもよい。つまり、同じ行列を構成する複数の行列領域を、実際の行列の位置に対応するよう配置して表示させてもよい。また、情報処理装置200は、合成する行列領域の行列情報に基づいて、行列領域の合成方法を変更してもよい。
When the images 310 to 340 shown in FIG. 3 are imaged by the first to fourth image pickup devices, the information processing apparatus 200 extracts the above matrix region from each image, and the extracted plurality of matrix regions Among them, the matrix areas constituting the same matrix are combined and displayed on the display unit 204.
As described above, the matrix regions 311, 312 and 321 are matrix regions constituting the same matrix. Therefore, the information processing apparatus 200 synthesizes the matrix areas 311, 312 and 321 and displays them on the display unit 204. Similarly, the information processing apparatus 200 synthesizes the matrix areas 331 and 341 and displays them on the display unit 204.
When synthesizing the matrix region, the information processing apparatus 200 may simply synthesize a plurality of matrix regions by using the point correspondence between the images. That is, a plurality of matrix regions constituting the same matrix may be arranged and displayed so as to correspond to the positions of the actual matrix. Further, the information processing apparatus 200 may change the method of synthesizing the matrix area based on the matrix information of the matrix area to be synthesized.

図4は、行列領域を表示する表示画面400の一例である。この表示画面400は、情報処理装置200の表示部204に表示される画面である。
行列401は、図3の行列領域311、312および321を合成した行列である。この行列401は、行列を直線で表示するよう、行列領域311、312および321を変形して合成したものである。ここで、画像の変形は、画像の反転、回転、移動、拡大および縮小の少なくとも1つを含む。
具体的には、行列401は、図3の行列領域311を変形した行列領域311Aと、図3の行列領域321を変形した行列領域321Aと、図3の行列領域312を変形した行列領域312Aとを含む。行列領域311Aは、行列の方向が反対方向となるように行列領域311を反転させた画像である。行列領域321Aは、行列の方向が一方向(図4では左右方向)となるように、行列領域321を部分的に反転、移動した画像である。また、行列領域311A、312Aおよび321Aは、行列を形成する人が等間隔で表示されるように行列の長さを縮小した画像である。
FIG. 4 is an example of a display screen 400 that displays a matrix area. The display screen 400 is a screen displayed on the display unit 204 of the information processing apparatus 200.
The matrix 401 is a matrix obtained by synthesizing the matrix regions 311, 312 and 321 of FIG. This matrix 401 is a composite of the matrix regions 311 and 312 and 321 modified so that the matrix is displayed as a straight line. Here, the deformation of the image includes at least one of inversion, rotation, movement, enlargement and reduction of the image.
Specifically, the matrix 401 includes a matrix region 311A obtained by modifying the matrix region 311 of FIG. 3, a matrix region 321A obtained by modifying the matrix region 321 of FIG. 3, and a matrix region 312A obtained by modifying the matrix region 312 of FIG. including. The matrix region 311A is an image in which the matrix region 311 is inverted so that the directions of the matrices are opposite to each other. The matrix area 321A is an image in which the matrix area 321 is partially inverted and moved so that the direction of the matrix is one direction (horizontal direction in FIG. 4). Further, the matrix regions 311A, 312A and 321A are images in which the length of the matrix is reduced so that the people forming the matrix are displayed at equal intervals.

また、行列領域311Aと行列領域321Aとの間の行列領域351Aと、行列領域321Aと行列領域312Aとの間の行列領域352Aとは、複数の撮像装置の画像に存在しない行列領域である。これら行列領域351Aおよび352Aは、図3に示す領域351および352にそれぞれ対応しており、行列領域311、312および321の位置情報をもとに生成され、合成することができる。
このように、関連性を有する複数の行列領域の方向がそれぞれ異なる場合、情報処理装置200は、当該複数の行列領域を、直線状に整列するよう変形して表示させる。これにより、行列の方向を一方向に揃えることができ、ユーザは、全体の行列の長さを容易に確認することができる。また、このとき情報処理装置200は、行列を形成する人を等間隔で表示するよう行列領域を変形して表示させる。つまり、情報処理装置200は、関連性を有する複数の行列領域を、実際の行列の長さに対応した長さに変形して表示させる。これにより、ユーザは、行列待ちをする人数を容易に把握することができる。
Further, the matrix region 351A between the matrix region 311A and the matrix region 321A and the matrix region 352A between the matrix region 321A and the matrix region 312A are matrix regions that do not exist in the images of the plurality of image pickup devices. These matrix regions 351A and 352A correspond to the regions 351 and 352 shown in FIG. 3, respectively, and can be generated and synthesized based on the position information of the matrix regions 311, 312 and 321.
In this way, when the directions of the plurality of related matrix regions are different from each other, the information processing apparatus 200 transforms and displays the plurality of matrix regions so as to be aligned linearly. As a result, the directions of the matrix can be aligned in one direction, and the user can easily check the length of the entire matrix. Further, at this time, the information processing apparatus 200 deforms and displays the matrix area so that the people forming the matrix are displayed at equal intervals. That is, the information processing apparatus 200 transforms a plurality of related matrix regions into lengths corresponding to the actual lengths of the matrices and displays them. As a result, the user can easily grasp the number of people waiting in line.

行列402は、図3の行列領域331および341を合成した行列である。この行列402は、行列401と同様に、行列を直線で表示するよう、行列領域331および341を変形して合成したものである。さらに、行列402は、行列領域331および341を、行列の待ち時間に応じた長さに変形して合成している。
具体的には、行列402は、図3の行列領域331を変形した行列領域331Aと、図3の行列領域341を変形した行列領域341Aとにより構成される。行列領域331Aは、行列の方向が一方向(図4では左右方向)となるように行列領域331を回転させ、行列の待ち時間に応じた長さに縮小した画像である。行列領域341Aは、行列の待ち時間に応じた長さに行列領域341を縮小した画像である。
The matrix 402 is a matrix obtained by synthesizing the matrix regions 331 and 341 of FIG. Similar to the matrix 401, the matrix 402 is a composite of the matrix regions 331 and 341 modified so that the matrix is displayed as a straight line. Further, the matrix 402 synthesizes the matrix regions 331 and 341 by transforming them into lengths according to the waiting time of the matrix.
Specifically, the matrix 402 is composed of a matrix region 331A obtained by modifying the matrix region 331 of FIG. 3 and a matrix region 341A obtained by modifying the matrix region 341 of FIG. The matrix area 331A is an image obtained by rotating the matrix area 331 so that the direction of the matrix is one direction (left-right direction in FIG. 4) and reducing the length according to the waiting time of the matrix. The matrix area 341A is an image obtained by reducing the matrix area 341 to a length corresponding to the waiting time of the matrix.

図3のタクシー343の待ち行列の1人当たりの待ち時間が、タクシー313やタクシー344の待ち行列の1人当たりの待ち時間と比較して短い場合、図4に示すように、行列を形成する人の間隔を他の行列と比較して狭くする。これにより、行列402の長さを待ち時間に応じて短く表示することができ、タクシー343の待ち時間が少ないことをユーザに提示することができる。つまり、ユーザは、行列の長さにかかわらず待ち時間を適切に把握することができる。
行列403は、行列領域342Aにより構成される。図3の行列領域342は、他に関連性を有する行列領域が存在しないため、合成は行われずそのまま行列領域342Aとして表示される。
When the waiting time per person in the queue of taxi 343 in FIG. 3 is shorter than the waiting time per person in the queue of taxi 313 or taxi 344, as shown in FIG. Narrow the interval compared to other matrices. As a result, the length of the matrix 402 can be displayed shorter according to the waiting time, and it is possible to show the user that the waiting time of the taxi 343 is small. That is, the user can properly grasp the waiting time regardless of the length of the matrix.
The matrix 403 is composed of the matrix region 342A. Since the matrix region 342 of FIG. 3 does not have any other related matrix region, the composition is not performed and the matrix region 342 is displayed as it is as the matrix region 342A.

以上説明したように、本実施形態における情報処理装置200は、複数の撮像装置によってそれぞれ撮像された画像から、複数の物体を含む行列領域をそれぞれ抽出し、抽出された行列領域に関する情報(行列情報)を取得する。そして、情報処理装置200は、抽出された行列領域のうち関連性を有する複数の行列領域を、行列情報に応じた表示方法で表示部204に表示させる。
このように、情報処理装置200は、関連性を有する行列が複数の撮像装置の撮像範囲に跨って存在する場合、複数の撮像装置によって撮像された行列の画像を適切に配置して表示させることができる。したがって、ユーザは、複数の撮像装置によって撮像された行列を容易に確認することができる。ここで、関連性を有する行列は、例えば、同じタクシー乗り場にてタクシーを待つ複数の人により形成される1つの行列とすることができる。これにより、ユーザは、複数の撮像装置によって撮像された同じ行列の全体像を容易に把握することができる。
As described above, the information processing apparatus 200 in the present embodiment extracts a matrix region including a plurality of objects from the images captured by each of the plurality of imaging devices, and information about the extracted matrix region (matrix information). ). Then, the information processing apparatus 200 causes the display unit 204 to display a plurality of related matrix areas among the extracted matrix areas by a display method according to the matrix information.
As described above, when the related matrix exists over the imaging range of the plurality of imaging devices, the information processing apparatus 200 appropriately arranges and displays the images of the matrix captured by the plurality of imaging devices. Can be done. Therefore, the user can easily confirm the matrix imaged by the plurality of image pickup devices. Here, the related matrix can be, for example, one matrix formed by a plurality of people waiting for a taxi at the same taxi stand. As a result, the user can easily grasp the whole image of the same matrix imaged by a plurality of image pickup devices.

また、情報処理装置200は、抽出された複数の行列領域のうち関連性を有する複数の行列領域を合成し、合成された画像を表示部204に表示させる。このように、情報処理装置200は、関連性を有する複数の行列領域の画像を1つの画像に合成して表示させるので、ユーザは、複数の撮像装置によって撮像された行列を容易かつ適切に確認することができる。
ここで、上記行列情報は、行列の位置、行列の方向、行列の長さおよび行列の待ち時間の少なくとも1つに関する情報を含む。したがって、情報処理装置200は、行列の長さや待ち時間といった行列の様子を、ユーザが確認しやすい形で適切に表示させることができる。
Further, the information processing apparatus 200 synthesizes a plurality of related matrix regions among the extracted plurality of matrix regions, and displays the combined image on the display unit 204. In this way, the information processing apparatus 200 combines and displays images of a plurality of related matrix regions into one image, so that the user can easily and appropriately confirm the matrix captured by the plurality of imaging devices. can do.
Here, the matrix information includes information regarding at least one of the position of the matrix, the direction of the matrix, the length of the matrix, and the waiting time of the matrix. Therefore, the information processing apparatus 200 can appropriately display the state of the matrix such as the length of the matrix and the waiting time in a form that can be easily confirmed by the user.

具体的には、情報処理装置200は、行列の位置情報に基づいて、関連性を有する複数の行列領域を、実際の行列の位置に対応するよう配置して表示させることができる。また、情報処理装置200は、行列の方向に基づいて、関連性を有する複数の行列領域を、直線状に整列するよう変形して表示させることもできる。さらに、情報処理装置200は、関連性を有する複数の行列領域を、行列の長さに対応した長さに変形して表示させるもできる。また、情報処理装置200は、関連性を有する複数の行列領域を、行列の待ち時間に対応した長さに変形して表示させるもできる。
したがって、実際の行列が複雑な形状であっても、ユーザは、行列の長さを容易に把握することができる。また、ユーザは、行列の実際の長さにかかわらず、行列の待ち時間を把握することも可能である。
Specifically, the information processing apparatus 200 can arrange and display a plurality of related matrix regions corresponding to the actual matrix positions based on the matrix position information. Further, the information processing apparatus 200 can also deform and display a plurality of related matrix regions so as to be aligned linearly based on the direction of the matrix. Further, the information processing apparatus 200 can also display a plurality of related matrix regions by transforming them into lengths corresponding to the lengths of the matrices. Further, the information processing apparatus 200 can also display a plurality of related matrix areas by transforming them into lengths corresponding to the waiting time of the matrix.
Therefore, even if the actual matrix has a complicated shape, the user can easily grasp the length of the matrix. The user can also keep track of the queue wait time, regardless of the actual length of the matrix.

さらに、情報処理装置200は、複数の撮像装置によってそれぞれ撮像された画像を表示部204へ表示させ、表示された画像内における行列領域の設定をユーザから受け付けることで、行列領域を設定し抽出するようにしてもよい。この場合、画像から行列領域を適切に抽出することができる。また、情報処理装置200は、ユーザが指定した行列領域を抽出するので、ユーザが確認したい行列を表示させることができ、ユーザの要求に応じた表示制御が可能となる。 Further, the information processing apparatus 200 sets and extracts the matrix area by displaying the images captured by the plurality of imaging devices on the display unit 204 and accepting the setting of the matrix area in the displayed image from the user. You may do so. In this case, the matrix area can be appropriately extracted from the image. Further, since the information processing apparatus 200 extracts the matrix area designated by the user, the matrix that the user wants to confirm can be displayed, and the display control according to the user's request becomes possible.

(変形例)
上記実施形態においては、複数の撮像装置によって撮像された画像からそれぞれ抽出された行列領域のうち関連性を有する複数の行列領域を、行列情報に応じた合成方法により合成して表示させる場合について説明した。しかしながら、関連性を有する複数の行列領域を1つの画像に合成せず、当該複数の行列領域を行列情報に応じた表示方法により表示させるだけでもよい。例えば、複数の行列領域を、行列情報に基づいて変形し、互いに近接させて表示するようにしてもよい。
また、上記実施形態においては、図4に示すように、表示画面400に行列の画像のみを表示させる場合について説明したが、行列の画像とともに行列情報を表示させてもよい。その場合、表示画面400に表示させる行列情報をユーザが選択可能であってもよい。
(Modification example)
In the above embodiment, a case will be described in which a plurality of related matrix regions among the matrix regions extracted from images captured by a plurality of image pickup devices are combined and displayed by a synthesis method according to the matrix information. did. However, it is also possible not to combine a plurality of related matrix areas into one image, but to display the plurality of matrix areas by a display method according to the matrix information. For example, a plurality of matrix areas may be deformed based on the matrix information and displayed close to each other.
Further, in the above embodiment, as shown in FIG. 4, the case where only the image of the matrix is displayed on the display screen 400 has been described, but the matrix information may be displayed together with the image of the matrix. In that case, the user may be able to select the matrix information to be displayed on the display screen 400.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100A、100B…撮像装置、200…情報処理装置、201…通信部、202…CPU、203…記憶部、204…表示部、205…入力部、206…行列領域設定部、207…行列情報管理部、208…行列領域抽出部、209…行列合成判断部、210…行列領域合成部、300…ネットワーク 100A, 100B ... Imaging device, 200 ... Information processing device, 201 ... Communication unit, 202 ... CPU, 203 ... Storage unit, 204 ... Display unit, 205 ... Input unit, 206 ... Matrix area setting unit, 207 ... Matrix information management unit , 208 ... Matrix area extraction unit, 209 ... Matrix synthesis judgment unit, 210 ... Matrix area synthesis unit, 300 ... Network

Claims (11)

複数の撮像手段によってそれぞれ撮像された画像から、複数の物体を含む行列領域をそれぞれ抽出する抽出手段と、
前記抽出手段により抽出された行列領域に関する情報を取得する取得手段と、
前記抽出手段により抽出された行列領域のうち関連性を有する複数の行列領域を、前記取得手段により取得された情報に応じた表示方法で表示装置に表示させる表示制御手段と、を備えることを特徴とする情報処理装置。
An extraction means for extracting a matrix region containing a plurality of objects from an image captured by a plurality of imaging means, respectively.
An acquisition means for acquiring information about the matrix region extracted by the extraction means, and an acquisition means.
It is characterized by comprising a display control means for displaying a plurality of related matrix areas among the matrix areas extracted by the extraction means on a display device by a display method according to the information acquired by the acquisition means. Information processing device.
前記抽出手段により抽出された複数の行列領域のうち関連性を有する複数の行列領域を合成する合成手段をさらに備え、
前記表示制御手段は、
前記合成手段により合成された画像を前記表示装置に表示させることを特徴とする請求項1に記載の情報処理装置。
Further, a synthesis means for synthesizing a plurality of related matrix regions among the plurality of matrix regions extracted by the extraction means is provided.
The display control means is
The information processing device according to claim 1, wherein an image synthesized by the synthesis means is displayed on the display device.
前記行列領域に関する情報は、行列の位置、行列の方向、行列の長さおよび行列の待ち時間の少なくとも1つに関する情報を含むことを特徴とする請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the information regarding the matrix region includes information regarding at least one of the position of the matrix, the direction of the matrix, the length of the matrix, and the waiting time of the matrix. 前記表示制御手段は、
前記行列の位置に関する情報に基づいて、前記関連性を有する複数の行列領域を、実際の行列の位置に対応するよう配置して表示させることを特徴とする請求項3に記載の情報処理装置。
The display control means is
The information processing apparatus according to claim 3, wherein a plurality of related matrix regions are arranged and displayed so as to correspond to the actual matrix positions, based on the information regarding the matrix positions.
前記表示制御手段は、
前記行列の方向に関する情報に基づいて、前記関連性を有する複数の行列領域を、直線状に整列するよう変形して表示させることを特徴とする請求項3または4に記載の情報処理装置。
The display control means is
The information processing apparatus according to claim 3 or 4, wherein the plurality of related matrix regions are deformed and displayed so as to be aligned linearly based on the information regarding the direction of the matrix.
前記表示制御手段は、
前記行列の長さに関する情報に基づいて、前記関連性を有する複数の行列領域を、前記行列の長さに対応した長さに変形して表示させることを特徴とする請求項3から5のいずれか1項に記載の情報処理装置。
The display control means is
Any of claims 3 to 5, wherein a plurality of matrix regions having the relationship are transformed into a length corresponding to the length of the matrix and displayed based on the information regarding the length of the matrix. The information processing apparatus according to item 1.
前記表示制御手段は、
前記行列の待ち時間に関する情報に基づいて、前記関連性を有する複数の行列領域を、前記行列の待ち時間に対応した長さに変形して表示させることを特徴とする請求項3から6のいずれか1項に記載の情報処理装置。
The display control means is
Any of claims 3 to 6, wherein a plurality of related matrix regions are transformed into a length corresponding to the waiting time of the matrix and displayed based on the information regarding the waiting time of the matrix. The information processing apparatus according to item 1.
前記複数の撮像手段によってそれぞれ撮像された画像を前記表示装置へ表示させる第二の表示制御手段をさらに備え、
前記抽出手段は、
前記第二の表示制御手段により表示された画像内における前記行列領域の設定を受け付け、当該行列領域を抽出することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
A second display control means for displaying an image captured by each of the plurality of image pickup means on the display device is further provided.
The extraction means is
The information processing apparatus according to any one of claims 1 to 7, wherein the setting of the matrix area in the image displayed by the second display control means is accepted and the matrix area is extracted.
複数の撮像手段によってそれぞれ撮像された画像から、複数の物体を含む行列領域を抽出するステップと、
抽出された前記行列領域に関する情報を取得するステップと、
抽出された前記行列領域のうち関連性を有する複数の行列領域を、前記行列領域に関する情報に応じた表示方法で表示装置に表示させるステップと、を含むことを特徴とする情報処理方法。
A step of extracting a matrix region containing a plurality of objects from an image captured by a plurality of imaging means, respectively.
Steps to acquire information about the extracted matrix area, and
An information processing method comprising: displaying a plurality of related matrix regions among the extracted matrix regions on a display device by a display method according to information regarding the matrix regions.
請求項1から8のいずれか1項に記載の情報処理装置と、
前記撮像手段をそれぞれ有し、前記情報処理装置とネットワークを介して接続された複数の撮像装置と、
前記情報処理装置とネットワークを介して接続された前記表示装置と、を備えることを特徴とする表示システム。
The information processing apparatus according to any one of claims 1 to 8.
A plurality of image pickup devices each having the image pickup means and connected to the information processing device via a network, and
A display system including the information processing device and the display device connected via a network.
コンピュータを、請求項1から8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the information processing apparatus according to any one of claims 1 to 8.
JP2018001912A 2018-01-10 2018-01-10 Information processing equipment, information processing methods and programs Active JP7027171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001912A JP7027171B2 (en) 2018-01-10 2018-01-10 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001912A JP7027171B2 (en) 2018-01-10 2018-01-10 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2019121987A JP2019121987A (en) 2019-07-22
JP7027171B2 true JP7027171B2 (en) 2022-03-01

Family

ID=67306534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001912A Active JP7027171B2 (en) 2018-01-10 2018-01-10 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP7027171B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230048567A1 (en) * 2020-02-07 2023-02-16 Nec Corporation Queue analysis apparatus, control method, and non-transitory computer-readablemedium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216217A (en) 2004-02-02 2005-08-11 Chuo Electronics Co Ltd System and method for measuring the number of people in procession

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123374A (en) * 1994-10-26 1996-05-17 Toshiba Corp Waiting time guiding device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216217A (en) 2004-02-02 2005-08-11 Chuo Electronics Co Ltd System and method for measuring the number of people in procession

Also Published As

Publication number Publication date
JP2019121987A (en) 2019-07-22

Similar Documents

Publication Publication Date Title
KR102111935B1 (en) Display control apparatus, display control method, and program
EP3420721B1 (en) Electronic device and operating method thereof
WO2010113929A1 (en) Tracking judgment device, tracking judgment method, and tracking judgment program
JP5178797B2 (en) Display control apparatus and display control method
JP4459788B2 (en) Facial feature matching device, facial feature matching method, and program
JP2008084287A (en) Information processor, imaging apparatus, information processing system, device control method and program
US20150334299A1 (en) Monitoring system
JP6812203B2 (en) Information processing system, information processing method, mobile projection terminal
KR101181967B1 (en) 3D street view system using identification information.
WO2017210826A1 (en) Carrier-assisted tracking
WO2021168804A1 (en) Image processing method, image processing apparatus and image processing system
WO2017210822A1 (en) Image processing for tracking
JP2019176306A (en) Monitoring system and control method therefor, and program
JP6584237B2 (en) Control device, control method, and program
JP6624800B2 (en) Image processing apparatus, image processing method, and image processing system
JP7371076B2 (en) Information processing device, information processing system, information processing method and program
JP5911227B2 (en) Determination apparatus, determination method, and program
JP7027171B2 (en) Information processing equipment, information processing methods and programs
JP2013065971A (en) Imaging device and control method for imaging device
JP6700706B2 (en) Information processing apparatus, information processing method, and program
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP4871315B2 (en) Compound eye photographing apparatus, control method therefor, and program
JP7123545B2 (en) Information processing device, information processing method and program
JP2018014572A (en) Information processing apparatus, image processing system, and program
KR101036107B1 (en) Emergency notification system using rfid

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R151 Written notification of patent or utility model registration

Ref document number: 7027171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151