JP7027171B2 - Information processing equipment, information processing methods and programs - Google Patents
Information processing equipment, information processing methods and programs Download PDFInfo
- Publication number
- JP7027171B2 JP7027171B2 JP2018001912A JP2018001912A JP7027171B2 JP 7027171 B2 JP7027171 B2 JP 7027171B2 JP 2018001912 A JP2018001912 A JP 2018001912A JP 2018001912 A JP2018001912 A JP 2018001912A JP 7027171 B2 JP7027171 B2 JP 7027171B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- information processing
- image
- processing apparatus
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and a program.
近年、撮像装置により撮像された画像を解析して行列の待ち時間を予測する技術が注目されている。このような技術を用いることによって、行列の様子や待ち時間のデータを収集することができる。また、収集したデータを用いて、行列を形成する利用者に待ち時間を案内することもできる。
特許文献1には、撮像装置により撮像された画像を解析して待ち行列を識別し、模式化した待ち行列を表示することで、利用者が行列の様子を容易に確認できるようにするシステムが開示されている。
In recent years, a technique for predicting the waiting time of a matrix by analyzing an image captured by an imaging device has attracted attention. By using such a technique, it is possible to collect data on the state of the matrix and the waiting time. In addition, the collected data can be used to guide the waiting time to the users forming the matrix.
しかしながら、行列が複数の撮像装置の撮像範囲に跨って存在する場合、各々の画像に部分的に撮像された行列を確認することになり、利用者は行列全体の様子を把握することが困難になる。上記特許文献1に記載の技術では、この点については全く考慮されていない。
そこで、本発明は、複数の撮像手段の撮像範囲に跨って存在する行列を、ユーザが容易に確認できるようにすることを課題としている。
However, when the matrix extends over the imaging range of a plurality of imaging devices, it is necessary to confirm the matrix partially captured in each image, and it is difficult for the user to grasp the state of the entire matrix. Become. The technique described in
Therefore, it is an object of the present invention to make it possible for a user to easily confirm a matrix existing over an imaging range of a plurality of imaging means.
上記課題を解決するために、本発明に係る情報処理装置の一態様は、複数の撮像手段によってそれぞれ撮像された画像から、複数の物体を含む行列領域をそれぞれ抽出する抽出手段と、前記抽出手段により抽出された行列領域に関する情報を取得する取得手段と、前記抽出手段により抽出された行列領域のうち関連性を有する複数の行列領域を、前記取得手段により取得された情報に応じた表示方法で表示装置に表示させる表示制御手段と、を備える。 In order to solve the above problems, one aspect of the information processing apparatus according to the present invention is an extraction means for extracting a matrix region containing a plurality of objects from images captured by a plurality of imaging means, and the extraction means. The acquisition means for acquiring information about the matrix area extracted by the extraction means and a plurality of related matrix areas among the matrix areas extracted by the extraction means are displayed by a display method according to the information acquired by the acquisition means. It is provided with a display control means for displaying on a display device.
本発明によれば、複数の撮像手段の撮像範囲に跨って存在する行列を、ユーザが容易に確認できるようにすることができる。 According to the present invention, it is possible for the user to easily confirm the matrix existing over the imaging range of the plurality of imaging means.
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
It should be noted that the embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or modified depending on the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention is described below. Is not limited to the embodiment of the above.
(第一の実施形態)
図1は、本実施形態における表示システム1000の構成例である。
本実施形態における表示システム1000は、複数の撮像装置によって撮像された画像を解析し、解析結果をユーザに提示するシステムである。具体的には、表示システム1000は、複数の撮像装置によって撮像された画像から、それぞれ複数の物体(本実施形態では、人体)を含む行列領域を抽出する。そして、表示システム100は、抽出された行列領域のうち、関連性を有する複数の行列領域を、行列領域の情報(以下、「行列情報」ともいう。)に応じた表示方法で表示する。ここで、関連性を有する複数の行列領域は、複数の撮像装置の撮像領域に跨って存在する同じ行列を構成する行列領域であり、表示システム100は、複数の撮像装置の撮像領域に跨って存在する行列を、ユーザが容易に確認できるように表示する。
なお、本実施形態では、行列を形成する物体を人体として説明するが、当該物体は、例えば車や動物などであってもよい。
(First embodiment)
FIG. 1 is a configuration example of the
The
In the present embodiment, the object forming the matrix is described as a human body, but the object may be, for example, a car or an animal.
図1に示すように、表示システム1000は、複数の撮像装置100Aおよび100Bと、情報処理装置200と、を備える。撮像装置100Aおよび100Bと情報処理装置200とは、ネットワーク300によって相互に通信可能に接続されている。
撮像装置100Aおよび100Bは、画像を撮像するカメラである。撮像装置100Aおよび100Bは、例えば、監視に用いられる監視カメラなどとすることができる。撮像装置100Aおよび100Bは、ネットワーク300を介して撮像した画像を情報処理装置200へ送信する。
As shown in FIG. 1, the
The
撮像装置100Aおよび100Bは、壁面や天井等に設置することができ、1枚以上の画像を含む映像を撮像するカメラであってもよい。また、撮像装置100Aおよび100Bは、PoE(Power Over Ethernet(登録商標))に対応していてもよいし、LANケーブル等を介して電力が供給される構成でもよい。さらに、図1では、2台の撮像装置100A、100Bがネットワーク300に接続されているが、ネットワーク300には2台以上の撮像装置が接続されていればよく、接続台数は図1に示す数に限定されない。
The
次に、撮像装置100Aの構成について説明する。本実施形態において、撮像装置100Aと撮像装置100Bとは同様の構成を有するため、以下、撮像装置100Aの構成についてのみ説明する。
撮像装置100Aは、撮像部101Aと、通信部102Aと、CPU103Aと、記憶部104Aと、を備える。
撮像部101Aは、撮像光学系を構成するレンズ群及び撮像素子を備える。レンズ群は、入射光を結像するための光学レンズを有し、入射光を撮像素子に集光させる。撮像素子は、光をアナログ画像信号に変換する素子であり、例えば、CCD、CMOS(Complementary Metal Oxide Semiconductor)等で構成することができる。撮像部101Aは、撮像素子から得られるアナログ画像信号に画像処理を施し、信号を符号化して符号化画像信号を出力する。
Next, the configuration of the
The
The
通信部102Aは、情報処理装置200を含む外部機器との間の無線または有線の通信インタフェースを提供する。すなわち、通信部102Aは、無線通信により情報処理装置200等の外部機器と通信することができる。この無線通信は、Bluetooth(登録商標)、Z-Wave(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide Band)等の無線PAN(Personal Area Network)を含む。また、Wi-Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。さらに、LTE/3G等の無線WAN(Wide Area Network)を含む。
また、通信部102Aは、有線のLANにより情報処理装置200等の外部機器と通信してもよい。この有線LANとしては、例えば、Ethernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等の構成が挙げられる。なお、通信部102Aは、外部機器と通信が可能であればよく、通信の規格、規模、構成は上記に限定されない。
The
Further, the
CPU103Aは、撮像装置100Aの各部における演算や論理判断等の処理を行う演算処理部であり、システムバスを介して各構成部(101A、102Aおよび104A)を制御する。撮像装置100Aの機能や処理は、CPU103Aが記憶部104Aに格納されているプログラムを読み出し、このプログラムを実行することにより実現されてもよい。
記憶部104Aは、EEPROM(Electrically Erasable Programmable Read Only Memory)等の電気的に消去可能な不揮発性メモリにより構成される。また、記憶部104Aは、CPU103Aの主メモリ、ワークメモリとして機能するRAM、外部メモリ、着脱可能な記憶媒体等を含んでもよい。この記憶部104Aには、CPU103Aが使用する各種情報が記録される。記憶部104Aには、例えば、撮像部101Aにより撮像された画像を記憶してもよい。
The
The
次に、情報処理装置200の構成について説明する。
情報処理装置200は、例えば、PC(Personal Computer)であってもよいし、タブレット端末、スマートフォン等の携帯用端末であってもよい。
情報処理装置200は、通信部201、CPU202、記憶部203、表示部204、および入力部205を備える。また、情報処理装置200は、行列領域設定部206、行列情報管理部207、行列領域抽出部208、行列合成判断部209および行列領域合成部210を備える。
Next, the configuration of the
The
The
通信部201は、上述した撮像装置100Aの通信部102Aと同様に、撮像装置100Aおよび100Bを含む外部機器との間の無線または有線の通信インタフェースを提供する。通信部201Aは、ネットワーク300を介して撮像装置100A、100Bから画像を受信するとともに、撮像装置100A、100Bとの間でそれぞれ各種情報の通信を行う。
CPU202は、上述した撮像装置100AのCPU103Aと同様に、情報処理装置200の各部における演算や論理判断等の処理を行う演算処理部であり、システムバスを介して各構成部(201、203~210)を制御する。
記憶部203は、上述した撮像装置100Aの記憶部104Aと同様に、EEPROM等の電気的に消去可能な不揮発性メモリにより構成される。また、記憶部203は、CPU202の主メモリ、ワークメモリとして機能するRAM、外部メモリ、着脱可能な記憶媒体等を含んでもよい。
The
The
The
表示部204は、撮像装置100A、100Bから受信した画像を表示したり、後述する行列領域や行列情報を表示したりする。なお、本実施形態では、情報処理装置200が表示部204を備える構成について説明するが、上記構成に限定されるものではない。例えば、情報処理装置200は、表示部204を備えず、外部の表示装置(クライアント装置)に画像を表示させる表示制御を行ってもよい。
入力部205は、マウス入力、キーボード入力、タッチ入力等の各種ユーザインタフェース(UI)を介してユーザからの指示入力を受け付ける。入力部205に、例えば撮像装置100Aの設定を変更する指示が入力されると、CPU202は、入力された情報に基づいて撮像装置100Aの設定を変更するための制御命令を生成し、通信部201を介して撮像装置100Aへ生成された制御命令を出力する。このように、入力部205へ入力された情報に基づいて、情報処理装置200は、撮像装置100A、100Bの設定を適宜変更することができる。
The
The
行列領域設定部206は、撮像装置100A、100Bにより撮像された画像から行列領域を設定する。行列領域設定部206は、ユーザが指定した行列領域に関する情報をもとに、行列領域を設定することができる。この場合、ユーザは、表示部204に表示された撮像装置100A、100Bの画像を確認しながらマウス等の各種UIを操作して、画像内における行列領域を指定する。そして、行列領域設定部206は、入力部205が受け付けた上記のユーザの指定をもとに行列領域を設定する。
なお、行列領域設定部206は、撮像装置100A、100Bにより撮像された画像を解析し、画像に存在する人体の移動速度や、人体の密集度の高い領域を検出することで、行列領域を設定してもよい。その際、行列領域の設定には、任意のアルゴリズムを用いることができる。
The matrix
The matrix
行列情報管理部207は、行列領域設定部206により設定された行列領域に関する情報(行列情報)を管理する。行列情報は、行列の識別番号207a、行列の位置情報207b、行列の方向と長さ207cおよび行列の待ち時間207dの少なくとも1つを含む。以下、行列情報管理部207が管理する行列情報について具体的に説明する。
行列の識別番号207aは、複数の撮像装置が撮像している行列を区別するための番号であり、関連性を有する行列領域には同じ識別番号が付与される。ここで、関連性を有する行列領域とは、同じ行列を構成する行列領域である。行列の識別番号207aは、ユーザが、画像の行列領域を指定する際に、撮像装置100A、100Bの画像を確認しながら設定してもよい。また、後述する行列合成判断部209が、複数の画像間における対応点を検出した際に、関連性を有する行列領域同士で同じ識別番号を付与するようにしてもよい。
The matrix
The
行列の位置情報207bは、行列領域設定部206により設定された行列領域の位置に関する情報である。行列の位置情報207bは、撮像装置100A、100Bの位置と、撮像装置100A、100Bの撮像方向および撮像画角とに基づいて決定することができる。ここで、撮像装置100A、100Bの位置情報は、不図示のGPS(Global Positioning System)により取得することができる。なお、撮像装置100A、100Bの位置情報を取得する方法は、GPSを用いる方法に限定されるものではなく、屋内測位技術などの測位技術によって取得する方法であってもよい。
The
行列の方向と長さ207cは、行列領域設定部206により設定された行列領域の方向と長さに関する情報である。行列の方向は、行列領域を形成する人体の動き方向とすることができる。人体の動き方向は、行列領域を形成する人体と同じ人体を異なるフレームで検出し、当該人体を追跡することにより検出することができる。例えば、人体に含まれる色のヒストグラムの類似度をもとに人体を追跡し、人体の動き方向を検出すればよい。行列の長さは、行列領域を形成する人体の数をもとに計測することができる。
行列の待ち時間207dは、行列領域設定部206により設定された行列領域を形成する人の待ち時間である。行列の待ち時間207dは、実際に行列で待っている人の待ち時間を計測して設定してもよいし、待ち行列理論に基づいて待ち時間を推定してもよい。なお、待ち時間を推定する方法には、任意のアルゴリズムを用いることができる。
The matrix direction and
The
行列領域抽出部208は、行列領域設定部206により設定された行列領域を、撮像装置100A、100Bによって撮像された画像からそれぞれ切り出す。
行列合成判断部209は、複数の撮像装置によって撮像された画像からそれぞれ抽出された行列領域が、関連性を有する行列領域であるか否か、つまり、同じ行列であるか否かを判断する。例えば、行列合成判断部209は、複数の撮像装置によってそれぞれ撮像された画像ごとに局所特徴量を抽出し、抽出した局所特徴量により画像間の点対応を検出することにより、同じ行列であるかを判断することができる。また、行列合成判断部209は、行列情報管理部207が管理する行列の識別番号207aおよび位置情報207bをもとに、同じ行列であるかを判断してもよい。
The matrix
The matrix
行列領域合成部210は、行列領域抽出部208により抽出された行列領域を、行列合成判断部209による判断結果をもとに合成し、合成した画像を表示部204に表示させる表示制御を行う。画像の合成に際し、行列領域合成部210は、局所特徴量による画像間の点対応を検出し、検出した点対応を用いて画像間の移動量および変形量を推定する。そして、行列領域合成部210は、推定した移動量および変形量に従って画像の移動および変形を実行し、画像を合成する。また、本実施形態では、行列領域合成部210は、行列情報に基づいて、行列領域の合成方法を変更する。つまり、行列領域合成部210は、行列情報に基づいて、行列領域の表示方法を変更する。行列領域の合成方法(表示方法)の詳細については後述する。
なお、行列領域の合成方法には、任意のアルゴリズムを用いることができる。また、関連性を有する行列領域で画像間の点対応が存在しない場合は、行列領域の位置情報をもとに、存在しない行列領域を考慮した合成を行ってもよい。
The matrix
Any algorithm can be used as the method for synthesizing the matrix region. Further, when there is no point correspondence between images in the related matrix region, synthesis may be performed in consideration of the non-existing matrix region based on the position information of the matrix region.
以上のように、本実施形態における情報処理装置200は、複数の撮像装置によってそれぞれ撮像された画像から、複数の物体を含む行列領域をそれぞれ抽出し、抽出された行列領域に関する情報(行列情報)を取得する。そして、情報処理装置200は、画像から抽出された行列領域のうち関連性を有する複数の行列領域を、行列情報に応じた表示方法で表示部204に表示させる表示制御を行う。このように、情報処理装置200は、複数の撮像装置によってそれぞれ撮像された関連性を有する行列領域を、関連付けて表示部204へ表示することができる。このため、ユーザは、複数の撮像装置の撮像範囲に跨って存在する行列の様子を容易に確認することができる。
As described above, the
次に、本実施形態におけるカメラ100の動作について説明する。
図2は、情報処理装置200が実行する表示制御処理の一例を示すフローチャートである。この図2の処理は、例えば、撮像装置100Aおよび100Bにより画像の撮像が開始されたタイミングで開始される。ただし、図2の処理の開始タイミングは、上記のタイミングに限らない。
情報処理装置200は、CPU202が必要なプログラムを記憶部203から読み出して実行することにより、図2に示す処理を実現することができる。ただし、図1に示す情報処理装置200の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図2の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU202の制御に基づいて動作する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
Next, the operation of the camera 100 in this embodiment will be described.
FIG. 2 is a flowchart showing an example of display control processing executed by the
The
まずS1において、情報処理装置200は、撮像装置100Aによって撮像された第1の画像を取得する。次にS2では、情報処理装置200は、S1において取得された第1の画像において行列領域が設定されているか否かを判定し、行列領域が設定されてしない場合にはS3に移行し、行列領域が設定されている場合にはS4に移行する。S3では、情報処理装置200は、S1において取得された第1の画像における行列領域の設定を行う。
S4では、情報処理装置200は、撮像装置100Bによって撮像された第2の画像を取得する。ここで、第2の画像は、S1において取得された第1の画像と同じタイミングで撮像された画像とする。次にS5では、情報処理装置200は、S4において取得された第2の画像において行列領域が設定されているか否かを判定し、行列領域が設定されてしない場合にはS6に移行し、行列領域が設定されている場合にはS7に移行する。S6では、情報処理装置200は、S4において取得された第2の画像における行列領域の設定を行う。
First, in S1, the
In S4, the
S7では、情報処理装置200は、第1の画像および第2の画像においてそれぞれ設定された行列領域の情報を収集する。次に、S8では、情報処理装置200は、第1の画像および第2の画像に同じ行列を構成する行列領域が存在するか否かを判定し、存在する場合にはS9に移行し、存在しない場合にはS10に移行する。S9では、情報処理装置200は、同じ行列を構成する行列領域を合成する。次に、S10では、情報処理装置200は、行列ごとに合成された画像を表示する。最後に、S11では、情報処理装置200は、撮像装置100A、100Bによって撮像された次の画像が存在するか否かを判定し、次の画像が存在する場合にはS1へ戻り、次の画像が存在しない場合には処理を終了する。
In S7, the
以下、行列領域の表示例について具体的に説明する。
図3は、複数の撮像装置によって撮像された画像の一例である。この図3において、画像310は、第1の撮像装置によって撮像された画像、画像320は、第2の撮像装置によって撮像された画像、画像330は、第3の撮像装置によって撮像された画像、画像410は、第4の撮像装置によって撮像された画像を示している。
第1の撮像装置および第2の撮像装置は、同じ行列を撮像しており、第1の撮像装置の画像310には、行列領域311と行列領域312とが含まれ、第2の撮像装置の画像320には、行列領域321が含まれる。行列領域311、312および321は、タクシー313を待つ人により形成される同じ待ち行列を構成する。また、第3の撮像装置および第4の撮像装置は、同じ行列を撮像しており、第3の撮像装置の画像330には、行列領域331が含まれ、第4の撮像装置の画像340には、行列領域341が含まれる。行列領域331および341は、タクシー343を待つ人により形成される同じ待ち行列を構成する。第4の撮像装置の画像340には、さらに、行列領域342が含まれる。行列領域342は、タクシー344を待つ人により形成される待ち行列を構成する。
Hereinafter, a display example of the matrix area will be specifically described.
FIG. 3 is an example of an image captured by a plurality of image pickup devices. In FIG. 3, the
The first image pickup apparatus and the second image pickup apparatus capture the same matrix, and the
第1~第4の撮像装置により、それぞれ図3に示す画像310~340が撮像された場合、情報処理装置200は、各画像から上記の行列領域を抽出し、抽出された複数の行列領域のうち、同じ行列を構成する行列領域を合成して表示部204へ表示させる。
上述したように、行列領域311、312および321は、同じ行列を構成する行列領域である。したがって、情報処理装置200は、行列領域311、312および321を合成して表示部204に表示させる。同様に、情報処理装置200は、行列領域331および341を合成して表示部204に表示させる。
行列領域の合成に際し、情報処理装置200は、画像間の点対応を用いて単純に複数の行列領域を合成してもよい。つまり、同じ行列を構成する複数の行列領域を、実際の行列の位置に対応するよう配置して表示させてもよい。また、情報処理装置200は、合成する行列領域の行列情報に基づいて、行列領域の合成方法を変更してもよい。
When the
As described above, the
When synthesizing the matrix region, the
図4は、行列領域を表示する表示画面400の一例である。この表示画面400は、情報処理装置200の表示部204に表示される画面である。
行列401は、図3の行列領域311、312および321を合成した行列である。この行列401は、行列を直線で表示するよう、行列領域311、312および321を変形して合成したものである。ここで、画像の変形は、画像の反転、回転、移動、拡大および縮小の少なくとも1つを含む。
具体的には、行列401は、図3の行列領域311を変形した行列領域311Aと、図3の行列領域321を変形した行列領域321Aと、図3の行列領域312を変形した行列領域312Aとを含む。行列領域311Aは、行列の方向が反対方向となるように行列領域311を反転させた画像である。行列領域321Aは、行列の方向が一方向(図4では左右方向)となるように、行列領域321を部分的に反転、移動した画像である。また、行列領域311A、312Aおよび321Aは、行列を形成する人が等間隔で表示されるように行列の長さを縮小した画像である。
FIG. 4 is an example of a
The
Specifically, the
また、行列領域311Aと行列領域321Aとの間の行列領域351Aと、行列領域321Aと行列領域312Aとの間の行列領域352Aとは、複数の撮像装置の画像に存在しない行列領域である。これら行列領域351Aおよび352Aは、図3に示す領域351および352にそれぞれ対応しており、行列領域311、312および321の位置情報をもとに生成され、合成することができる。
このように、関連性を有する複数の行列領域の方向がそれぞれ異なる場合、情報処理装置200は、当該複数の行列領域を、直線状に整列するよう変形して表示させる。これにより、行列の方向を一方向に揃えることができ、ユーザは、全体の行列の長さを容易に確認することができる。また、このとき情報処理装置200は、行列を形成する人を等間隔で表示するよう行列領域を変形して表示させる。つまり、情報処理装置200は、関連性を有する複数の行列領域を、実際の行列の長さに対応した長さに変形して表示させる。これにより、ユーザは、行列待ちをする人数を容易に把握することができる。
Further, the
In this way, when the directions of the plurality of related matrix regions are different from each other, the
行列402は、図3の行列領域331および341を合成した行列である。この行列402は、行列401と同様に、行列を直線で表示するよう、行列領域331および341を変形して合成したものである。さらに、行列402は、行列領域331および341を、行列の待ち時間に応じた長さに変形して合成している。
具体的には、行列402は、図3の行列領域331を変形した行列領域331Aと、図3の行列領域341を変形した行列領域341Aとにより構成される。行列領域331Aは、行列の方向が一方向(図4では左右方向)となるように行列領域331を回転させ、行列の待ち時間に応じた長さに縮小した画像である。行列領域341Aは、行列の待ち時間に応じた長さに行列領域341を縮小した画像である。
The
Specifically, the
図3のタクシー343の待ち行列の1人当たりの待ち時間が、タクシー313やタクシー344の待ち行列の1人当たりの待ち時間と比較して短い場合、図4に示すように、行列を形成する人の間隔を他の行列と比較して狭くする。これにより、行列402の長さを待ち時間に応じて短く表示することができ、タクシー343の待ち時間が少ないことをユーザに提示することができる。つまり、ユーザは、行列の長さにかかわらず待ち時間を適切に把握することができる。
行列403は、行列領域342Aにより構成される。図3の行列領域342は、他に関連性を有する行列領域が存在しないため、合成は行われずそのまま行列領域342Aとして表示される。
When the waiting time per person in the queue of
The
以上説明したように、本実施形態における情報処理装置200は、複数の撮像装置によってそれぞれ撮像された画像から、複数の物体を含む行列領域をそれぞれ抽出し、抽出された行列領域に関する情報(行列情報)を取得する。そして、情報処理装置200は、抽出された行列領域のうち関連性を有する複数の行列領域を、行列情報に応じた表示方法で表示部204に表示させる。
このように、情報処理装置200は、関連性を有する行列が複数の撮像装置の撮像範囲に跨って存在する場合、複数の撮像装置によって撮像された行列の画像を適切に配置して表示させることができる。したがって、ユーザは、複数の撮像装置によって撮像された行列を容易に確認することができる。ここで、関連性を有する行列は、例えば、同じタクシー乗り場にてタクシーを待つ複数の人により形成される1つの行列とすることができる。これにより、ユーザは、複数の撮像装置によって撮像された同じ行列の全体像を容易に把握することができる。
As described above, the
As described above, when the related matrix exists over the imaging range of the plurality of imaging devices, the
また、情報処理装置200は、抽出された複数の行列領域のうち関連性を有する複数の行列領域を合成し、合成された画像を表示部204に表示させる。このように、情報処理装置200は、関連性を有する複数の行列領域の画像を1つの画像に合成して表示させるので、ユーザは、複数の撮像装置によって撮像された行列を容易かつ適切に確認することができる。
ここで、上記行列情報は、行列の位置、行列の方向、行列の長さおよび行列の待ち時間の少なくとも1つに関する情報を含む。したがって、情報処理装置200は、行列の長さや待ち時間といった行列の様子を、ユーザが確認しやすい形で適切に表示させることができる。
Further, the
Here, the matrix information includes information regarding at least one of the position of the matrix, the direction of the matrix, the length of the matrix, and the waiting time of the matrix. Therefore, the
具体的には、情報処理装置200は、行列の位置情報に基づいて、関連性を有する複数の行列領域を、実際の行列の位置に対応するよう配置して表示させることができる。また、情報処理装置200は、行列の方向に基づいて、関連性を有する複数の行列領域を、直線状に整列するよう変形して表示させることもできる。さらに、情報処理装置200は、関連性を有する複数の行列領域を、行列の長さに対応した長さに変形して表示させるもできる。また、情報処理装置200は、関連性を有する複数の行列領域を、行列の待ち時間に対応した長さに変形して表示させるもできる。
したがって、実際の行列が複雑な形状であっても、ユーザは、行列の長さを容易に把握することができる。また、ユーザは、行列の実際の長さにかかわらず、行列の待ち時間を把握することも可能である。
Specifically, the
Therefore, even if the actual matrix has a complicated shape, the user can easily grasp the length of the matrix. The user can also keep track of the queue wait time, regardless of the actual length of the matrix.
さらに、情報処理装置200は、複数の撮像装置によってそれぞれ撮像された画像を表示部204へ表示させ、表示された画像内における行列領域の設定をユーザから受け付けることで、行列領域を設定し抽出するようにしてもよい。この場合、画像から行列領域を適切に抽出することができる。また、情報処理装置200は、ユーザが指定した行列領域を抽出するので、ユーザが確認したい行列を表示させることができ、ユーザの要求に応じた表示制御が可能となる。
Further, the
(変形例)
上記実施形態においては、複数の撮像装置によって撮像された画像からそれぞれ抽出された行列領域のうち関連性を有する複数の行列領域を、行列情報に応じた合成方法により合成して表示させる場合について説明した。しかしながら、関連性を有する複数の行列領域を1つの画像に合成せず、当該複数の行列領域を行列情報に応じた表示方法により表示させるだけでもよい。例えば、複数の行列領域を、行列情報に基づいて変形し、互いに近接させて表示するようにしてもよい。
また、上記実施形態においては、図4に示すように、表示画面400に行列の画像のみを表示させる場合について説明したが、行列の画像とともに行列情報を表示させてもよい。その場合、表示画面400に表示させる行列情報をユーザが選択可能であってもよい。
(Modification example)
In the above embodiment, a case will be described in which a plurality of related matrix regions among the matrix regions extracted from images captured by a plurality of image pickup devices are combined and displayed by a synthesis method according to the matrix information. did. However, it is also possible not to combine a plurality of related matrix areas into one image, but to display the plurality of matrix areas by a display method according to the matrix information. For example, a plurality of matrix areas may be deformed based on the matrix information and displayed close to each other.
Further, in the above embodiment, as shown in FIG. 4, the case where only the image of the matrix is displayed on the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100A、100B…撮像装置、200…情報処理装置、201…通信部、202…CPU、203…記憶部、204…表示部、205…入力部、206…行列領域設定部、207…行列情報管理部、208…行列領域抽出部、209…行列合成判断部、210…行列領域合成部、300…ネットワーク 100A, 100B ... Imaging device, 200 ... Information processing device, 201 ... Communication unit, 202 ... CPU, 203 ... Storage unit, 204 ... Display unit, 205 ... Input unit, 206 ... Matrix area setting unit, 207 ... Matrix information management unit , 208 ... Matrix area extraction unit, 209 ... Matrix synthesis judgment unit, 210 ... Matrix area synthesis unit, 300 ... Network
Claims (11)
前記抽出手段により抽出された行列領域に関する情報を取得する取得手段と、
前記抽出手段により抽出された行列領域のうち関連性を有する複数の行列領域を、前記取得手段により取得された情報に応じた表示方法で表示装置に表示させる表示制御手段と、を備えることを特徴とする情報処理装置。 An extraction means for extracting a matrix region containing a plurality of objects from an image captured by a plurality of imaging means, respectively.
An acquisition means for acquiring information about the matrix region extracted by the extraction means, and an acquisition means.
It is characterized by comprising a display control means for displaying a plurality of related matrix areas among the matrix areas extracted by the extraction means on a display device by a display method according to the information acquired by the acquisition means. Information processing device.
前記表示制御手段は、
前記合成手段により合成された画像を前記表示装置に表示させることを特徴とする請求項1に記載の情報処理装置。 Further, a synthesis means for synthesizing a plurality of related matrix regions among the plurality of matrix regions extracted by the extraction means is provided.
The display control means is
The information processing device according to claim 1, wherein an image synthesized by the synthesis means is displayed on the display device.
前記行列の位置に関する情報に基づいて、前記関連性を有する複数の行列領域を、実際の行列の位置に対応するよう配置して表示させることを特徴とする請求項3に記載の情報処理装置。 The display control means is
The information processing apparatus according to claim 3, wherein a plurality of related matrix regions are arranged and displayed so as to correspond to the actual matrix positions, based on the information regarding the matrix positions.
前記行列の方向に関する情報に基づいて、前記関連性を有する複数の行列領域を、直線状に整列するよう変形して表示させることを特徴とする請求項3または4に記載の情報処理装置。 The display control means is
The information processing apparatus according to claim 3 or 4, wherein the plurality of related matrix regions are deformed and displayed so as to be aligned linearly based on the information regarding the direction of the matrix.
前記行列の長さに関する情報に基づいて、前記関連性を有する複数の行列領域を、前記行列の長さに対応した長さに変形して表示させることを特徴とする請求項3から5のいずれか1項に記載の情報処理装置。 The display control means is
Any of claims 3 to 5, wherein a plurality of matrix regions having the relationship are transformed into a length corresponding to the length of the matrix and displayed based on the information regarding the length of the matrix. The information processing apparatus according to item 1.
前記行列の待ち時間に関する情報に基づいて、前記関連性を有する複数の行列領域を、前記行列の待ち時間に対応した長さに変形して表示させることを特徴とする請求項3から6のいずれか1項に記載の情報処理装置。 The display control means is
Any of claims 3 to 6, wherein a plurality of related matrix regions are transformed into a length corresponding to the waiting time of the matrix and displayed based on the information regarding the waiting time of the matrix. The information processing apparatus according to item 1.
前記抽出手段は、
前記第二の表示制御手段により表示された画像内における前記行列領域の設定を受け付け、当該行列領域を抽出することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。 A second display control means for displaying an image captured by each of the plurality of image pickup means on the display device is further provided.
The extraction means is
The information processing apparatus according to any one of claims 1 to 7, wherein the setting of the matrix area in the image displayed by the second display control means is accepted and the matrix area is extracted.
抽出された前記行列領域に関する情報を取得するステップと、
抽出された前記行列領域のうち関連性を有する複数の行列領域を、前記行列領域に関する情報に応じた表示方法で表示装置に表示させるステップと、を含むことを特徴とする情報処理方法。 A step of extracting a matrix region containing a plurality of objects from an image captured by a plurality of imaging means, respectively.
Steps to acquire information about the extracted matrix area, and
An information processing method comprising: displaying a plurality of related matrix regions among the extracted matrix regions on a display device by a display method according to information regarding the matrix regions.
前記撮像手段をそれぞれ有し、前記情報処理装置とネットワークを介して接続された複数の撮像装置と、
前記情報処理装置とネットワークを介して接続された前記表示装置と、を備えることを特徴とする表示システム。 The information processing apparatus according to any one of claims 1 to 8.
A plurality of image pickup devices each having the image pickup means and connected to the information processing device via a network, and
A display system including the information processing device and the display device connected via a network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018001912A JP7027171B2 (en) | 2018-01-10 | 2018-01-10 | Information processing equipment, information processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018001912A JP7027171B2 (en) | 2018-01-10 | 2018-01-10 | Information processing equipment, information processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019121987A JP2019121987A (en) | 2019-07-22 |
JP7027171B2 true JP7027171B2 (en) | 2022-03-01 |
Family
ID=67306534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018001912A Active JP7027171B2 (en) | 2018-01-10 | 2018-01-10 | Information processing equipment, information processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7027171B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230048567A1 (en) * | 2020-02-07 | 2023-02-16 | Nec Corporation | Queue analysis apparatus, control method, and non-transitory computer-readablemedium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005216217A (en) | 2004-02-02 | 2005-08-11 | Chuo Electronics Co Ltd | System and method for measuring the number of people in procession |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08123374A (en) * | 1994-10-26 | 1996-05-17 | Toshiba Corp | Waiting time guiding device |
-
2018
- 2018-01-10 JP JP2018001912A patent/JP7027171B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005216217A (en) | 2004-02-02 | 2005-08-11 | Chuo Electronics Co Ltd | System and method for measuring the number of people in procession |
Also Published As
Publication number | Publication date |
---|---|
JP2019121987A (en) | 2019-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102111935B1 (en) | Display control apparatus, display control method, and program | |
EP3420721B1 (en) | Electronic device and operating method thereof | |
WO2010113929A1 (en) | Tracking judgment device, tracking judgment method, and tracking judgment program | |
JP5178797B2 (en) | Display control apparatus and display control method | |
JP4459788B2 (en) | Facial feature matching device, facial feature matching method, and program | |
JP2008084287A (en) | Information processor, imaging apparatus, information processing system, device control method and program | |
US20150334299A1 (en) | Monitoring system | |
JP6812203B2 (en) | Information processing system, information processing method, mobile projection terminal | |
KR101181967B1 (en) | 3D street view system using identification information. | |
WO2017210826A1 (en) | Carrier-assisted tracking | |
WO2021168804A1 (en) | Image processing method, image processing apparatus and image processing system | |
WO2017210822A1 (en) | Image processing for tracking | |
JP2019176306A (en) | Monitoring system and control method therefor, and program | |
JP6584237B2 (en) | Control device, control method, and program | |
JP6624800B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP7371076B2 (en) | Information processing device, information processing system, information processing method and program | |
JP5911227B2 (en) | Determination apparatus, determination method, and program | |
JP7027171B2 (en) | Information processing equipment, information processing methods and programs | |
JP2013065971A (en) | Imaging device and control method for imaging device | |
JP6700706B2 (en) | Information processing apparatus, information processing method, and program | |
US11195295B2 (en) | Control system, method of performing analysis and storage medium | |
JP4871315B2 (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP7123545B2 (en) | Information processing device, information processing method and program | |
JP2018014572A (en) | Information processing apparatus, image processing system, and program | |
KR101036107B1 (en) | Emergency notification system using rfid |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220216 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7027171 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |