JP7384225B2 - 行列解析装置、制御方法、及びプログラム - Google Patents

行列解析装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP7384225B2
JP7384225B2 JP2021575579A JP2021575579A JP7384225B2 JP 7384225 B2 JP7384225 B2 JP 7384225B2 JP 2021575579 A JP2021575579 A JP 2021575579A JP 2021575579 A JP2021575579 A JP 2021575579A JP 7384225 B2 JP7384225 B2 JP 7384225B2
Authority
JP
Japan
Prior art keywords
matrix
line
matrix line
image
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021575579A
Other languages
English (en)
Other versions
JPWO2021157085A5 (ja
JPWO2021157085A1 (ja
Inventor
浩雄 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021157085A1 publication Critical patent/JPWO2021157085A1/ja
Publication of JPWO2021157085A5 publication Critical patent/JPWO2021157085A5/ja
Application granted granted Critical
Publication of JP7384225B2 publication Critical patent/JP7384225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Description

本発明はオブジェクトの行列の解析に関する。
画像から人などの行列に関する情報を得る技術が開発されている。例えば特許文献1は、時系列画像から静止物体を表す画素を検出し、行列の形状に関する事前知識を利用してこれらの画素をグループ化することにより、画像から行列を検出する技術を開示している。
特開2016-224651号公報
特許文献1の画像処理装置は、行列の延在方向(行列がどちらの方向に向けて延びるか)などといった、行列の形状に関する事前知識を要する。そのため、特許文献1の画像処理装置の利用者には、行列の形状を事前に把握し、把握した形状に関する情報を画像処理装置に与えるための労力がかかる。
本発明は上記の課題に鑑みてなされたものであり、その目的の一つは、少ない労力で画像から行列の状態を把握できる技術を提供することである。
本発明の行列解析装置は、1)対象画像においてオブジェクトの行列を含む行列領域を特定する特定部と、2)その行列領域に含まれるオブジェクトの位置及び向きを推定する推定部と、3)その行列領域に含まれるオブジェクトについて推定された位置及び向きに基づいて、その行列領域に含まれる行列を線で表す行列ラインを生成する行列ライン生成部と、4)その行列ラインが含まれる結果画像を含む出力情報を生成する出力情報生成部と、を有する。また、前記結果画像は、前記対象画像、前記対象画像と同じ範囲が含まれる背景画像、及び前記対象画像と同じ範囲が含まれる地図画像のいずれか1つに対して前記行列ラインが重畳されたものであり、前記出力情報生成部は、前記対象画像から生成された前記行列ラインと、その行列ラインによって表される行列について過去に生成された行列ラインとに基づいて、行列ラインの時間変化を推定し、前記推定した行列ラインの時間変化に基づいて、その行列について将来の行列ラインを生成し、前記生成した将来の行列ラインを前記結果画像に含める。
本発明の制御方法はコンピュータによって実行される。当該制御方法は、1)対象画像においてオブジェクトの行列を含む行列領域を特定する特定ステップと、2)その行列領域に含まれるオブジェクトの位置及び向きを推定する推定ステップと、3)その行列領域に含まれるオブジェクトについて推定された位置及び向きに基づいて、その行列領域に含まれる行列を線で表す行列ラインを生成する行列ライン生成ステップと、4)前記行列ラインが含まれる結果画像を含む出力情報を生成する出力情報生成ステップと、を有する。また、前記結果画像は、前記対象画像、前記対象画像と同じ範囲が含まれる背景画像、及び前記対象画像と同じ範囲が含まれる地図画像のいずれか1つに対して前記行列ラインが重畳されたものであり、前記出力情報生成ステップにおいて、前記対象画像から生成された前記行列ラインと、その行列ラインによって表される行列について過去に生成された行列ラインとに基づいて、行列ラインの時間変化を推定し、前記推定した行列ラインの時間変化に基づいて、その行列について将来の行列ラインを生成し、前記生成した将来の行列ラインを前記結果画像に含める。
本発明のプログラムは、本発明の制御方法をコンピュータに実行させる。
本発明によれば、少ない労力で画像から行列の状態を把握できる技術を提供する。
本実施形態の行列解析装置の動作の概要を例示する図である。 実施形態1の行列解析装置の構成を例示する図である。 行列解析装置を実現するための計算機を例示する図である。 実施形態1の行列解析装置によって実行される処理の流れを例示するフローチャートである。 各オブジェクトについて算出された方向ベクトルを例示する図である。 順序情報をテーブル形式で例示する図である。 方向ベクトルを連結することで生成される行列ラインを例示する図である。 方向ベクトルの中点を連結することで生成される行列ラインを例示する図である。 線形近似によって得られる行列ラインを例示する図である。 行列ラインの生成において非線形の補間処理を行うケースを例示する図である。 行列ラインとして利用しうる形状を例示する図である。 出力情報生成部を有する行列解析装置の機能構成を例示するブロック図である。 結果画像を例示する図である。 行列の先頭位置及び最後尾位置が示されている結果画像を例示する図である。 最後尾の待ち時間が示されている結果画像を例示する図である。 最後尾以外の位置についても待ち時間が示されている結果画像を例示する図である。 過去の行列ラインが含まれる結果画像を例示する図である。 将来の行列ラインを推定する方法を例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
<概要>
図1は、本実施形態の行列解析装置2000の動作の概要を例示する図である。図1は、行列解析装置2000の動作についての理解を容易にするための概念的な説明を表す図であり、行列解析装置2000の動作を具体的に限定するものではない。
行列解析装置2000は、対象画像10に含まれる行列を線状の形状で表現した行列ライン40を生成する。そのために、行列解析装置2000は、対象画像10に含まれる各オブジェクト20の位置及び向きを推定する。対象画像10は、オブジェクト20を撮像するカメラ50によって生成されたものである。なお、図1に示される対象画像10では真上から撮影された例が示されているが、対象画像10の撮影画角には限定はなく、任意の画角から撮影されてよい。
オブジェクト20としては、その位置が移動しうる任意の物体を扱うことができる。例えばオブジェクト20としては、人その他の動物や、自動車やバイクその他の乗り物を扱うことができる。ここで、1つの物体ではなく、複数の物体の集まりをオブジェクト20として扱ってもよい。これは例えば、数人の人の固まりを1つのオブジェクト20として扱うケースなどである。逆に、1つの物体の一部を、オブジェクト20として扱ってもよい。これは例えば、人の全体ではなく、人の頭部のみをオブジェクト20として扱うケースなどである。
行列解析装置2000は、対象画像10において行列を表す領域である行列領域30に含まれる各オブジェクト20について推定された位置及び向きに基づいて、行列領域30に含まれる行列を線状の形状で表現した行列ライン40を生成する。ここで、対象画像10から行列領域30を特定する処理は、行列解析装置2000によって行われてもよいし、行列解析装置2000以外の装置によって行われてもよい。以下では、説明を簡略化するため、特に断らない限り、行列領域30を特定する処理が行列解析装置2000で行われるものとする。
<代表的な作用効果>
行列解析装置2000は、対象画像10に含まれる各オブジェクト20の位置及び向きを推定し、推定されたオブジェクト20の位置及び向きに基づいて、オブジェクト20の行列の形状を表した行列ライン40を生成する。この構成によれば、行列がどちらの方向に向かって延びているかなどといった行列の形状に関する事前知識を行列解析装置2000に与えなくてもよい。そのため、行列解析装置2000の利用者は、少ない労力で対象画像10から行列の状態を把握できる。
また、行列の形状に関する事前知識を与えなくてもよいため、行列の形状が事前に分からないケースや、行列が想定外の形状をしている場合でも、対象画像10から行列ライン40を生成することができる。
以下、本実施形態の行列解析装置2000についてさらに詳細に説明する。
<行列解析装置2000の機能構成の例>
図2は、実施形態1の行列解析装置2000の構成を例示する図である。行列解析装置2000は、推定部2020及び行列ライン生成部2040を有する。推定部2020は、対象画像10に含まれるオブジェクト20の位置及び向きを推定する。行列ライン生成部2040は、対象画像10内の行列領域30について、その行列領域30に含まれる各オブジェクト20について推定された位置及び向きに基づいて、その行列領域30に含まれる行列を線で表現した行列ライン40を生成する。
<行列解析装置2000のハードウエア構成>
行列解析装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、行列解析装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
例えば行列解析装置2000は、1つの計算機で実現される。図3は、行列解析装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、行列解析装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などのプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスクドライブ、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
ストレージデバイス1080は、行列解析装置2000の機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
行列解析装置2000は、2つ以上の計算機で実現されてもよい。この場合における各計算機も、例えば、図3に示したハードウエア構成を持つ。
ここで、行列解析装置2000の機能の少なくとも一部は、カメラ50によって実現されてもよい。言い換えれば、カメラ50が、行列解析装置2000を実現する計算機の1つとして利用されてもよい。このように行列解析装置2000の機能の少なくとも一部を実現するカメラ50としては、例えば、インテリジェントカメラ、ネットワークカメラ、又は IP(Internet Protocol)カメラなどと呼ばれるカメラを利用できる。
<処理の流れ>
図4は、実施形態1の行列解析装置2000によって実行される処理の流れを例示するフローチャートである。推定部2020は、対象画像10を取得する(S102)。推定部2020は、対象画像10から行列領域30を推定する(S104)。推定部2020は、行列領域30に含まれる各オブジェクト20について、その位置及び向きを推定する(S106)。行列ライン生成部2040は、行列領域30に含まれる各オブジェクト20について推定した位置及び向きに基づいて、行列ライン40を生成する(S108)。
なお、行列解析装置2000が行う処理の流れは、図4に示す例に限定されない。例えば、位置及び向きの推定の対象とするオブジェクト20は、行列領域30に含まれるオブジェクト20のみでなく、対象画像10に含まれる全てのオブジェクト20であってもよい。この場合、例えば行列解析装置2000は、オブジェクト20の位置及び向きの推定を、行列領域30の推定と平行して行ったり、行列領域30の推定よりも前に行ったりしてもよい。
また、前述したように、行列領域30を特定する処理は行列解析装置2000以外の装置で行われてもよい。この場合、行列解析装置2000は、行列領域30を表す情報を他の装置から取得する。
<対象画像10の取得:S102>
推定部2020は、処理対象とする対象画像10を取得する(S102)。対象画像10は、カメラ50でオブジェクト20を撮像することで得られる任意の画像である。例えばカメラ50は、オブジェクト20の群衆の監視が必要な場所に設けられる監視カメラである。
カメラ50は、動画を生成するビデオカメラであってもよいし、静止画を生成するスチルカメラであってもよい。前者の場合、対象画像10は、カメラ50によって生成された動画を構成するビデオフレームである。
推定部2020が対象画像10を取得する方法は様々である。例えば推定部2020は、カメラ50から送信される対象画像10を受信する。その他にも例えば、推定部2020は、カメラ50にアクセスし、カメラ50に記憶されている対象画像10を取得する。
なお、カメラ50は、カメラ50の外部に設けられている記憶装置に対象画像10を記憶させてもよい。この場合、推定部2020は、この記憶装置にアクセスして対象画像10を取得する。そのため、この場合、行列解析装置2000とカメラ50は通信可能に接続されていなくてもよい。
行列解析装置2000の一部又は全部の機能がカメラ50で実現される場合、行列解析装置2000は、行列解析装置2000自身によって生成された対象画像10を取得する。この場合、対象画像10は、例えば行列解析装置2000の内部にある記憶装置(例えばストレージデバイス1080)に記憶されている。そこで推定部2020は、この記憶装置から対象画像10を取得する。
推定部2020が対象画像10を取得するタイミングは任意である。例えば推定部2020は、カメラ50によって対象画像10が生成される度に、その新たに生成された対象画像10を取得する。その他にも例えば、推定部2020は、定期的に未取得の対象画像10を取得してもよい。例えば推定部2020が1秒間に1回対象画像10を取得する場合、推定部2020は、1秒間に生成される1つ以上の対象画像10(例えばカメラ50が 30fps(frames/second) のフレームレートを持つビデオカメラであれば、30枚の対象画像10)をまとめて取得する。
推定部2020は、カメラ50によって生成された全ての対象画像10を取得してもよいし、一部の対象画像10を取得してもよい。後者の場合、例えば推定部2020は、カメラ50によって生成される対象画像10を、所定数に1つの割合で取得する。
<行列領域30の推定>
前述したように、推定部2020は、対象画像10から行列領域30を推定する処理を行ってもよい。ここで、画像から行列を表す領域を推定する技術には、種々の既存の技術を利用することができる。
例えば推定部2020に、画像に含まれる行列領域を推定する推定器を設け、その推定器を予め学習させておく。なお、推定器として利用するモデルとしては、ニューラルネットワークなどといった既存の種類のモデルを利用することができる。
推定器は、対象画像10が入力されたことに応じて、その対象画像10に含まれる行列領域30を表す情報を出力するように学習される。行列領域30を表す情報は、対象画像10に含まれる画素のうち、行列領域30に含まれる画素を特定できる情報である。例えば行列領域30を表す情報は、行列領域30に含まれる各画素の座標を列挙した情報や、対象画像10に含まれる各画素について、行列領域30に含まれるか否かを示す情報などである。その他にも例えば、行列領域30を多角形で表す場合、行列領域30を表す情報は、多角形の各頂点の座標を示してもよい。
行列領域の推定を行う推定器の学習には、既存の技術を利用することができる。例えば、「学習用画像、その学習用画像内の行列領域を表す情報」というセットで構成される学習データを複数用意する。そして、学習データごとに、「その学習データに含まれる学習用画像を推定器に入力し、推定器の出力(推定器がその学習用画像から推定した行列領域)とその学習データが示す行列領域との誤差を表す損失を算出し、その損失を最小化するように推定器のパラメータを更新する」という処理を行うことで、推定器を学習することができる。
前述したように、対象画像10から行列領域30を推定する処理は、行列解析装置2000以外の装置で行われてもよい。この場合、推定部2020は、当該他の装置から、行列領域30を表す情報を取得する。例えばこの情報は、対象画像10の識別情報に対し、その対象画像10について推定された1つ以上の行列領域30それぞれを特定する情報を対応づけた情報である。
<オブジェクト20の位置及び向きの推定>
推定部2020は、対象画像10に含まれるオブジェクト20の位置及び向きを推定する。ここで、画像に含まれる人などのオブジェクトについて、その位置及び向きを推定する技術には、既存の技術を利用することができる。
例えば推定部2020に、対象画像10が入力されたことに応じて、その中に含まれる1つ以上のオブジェクト20それぞれの位置及び向きを出力するように構成された推定器を設ける。そして、学習データを利用して、この推定器を予め学習しておく。この場合、推定部2020は、対象画像10をこの推定器に入力することで、対象画像10に含まれる各オブジェクト20の位置と向きを得ることができる。なお、推定器のモデルには、ニューラルネットワーク等の任意のモデルを利用できる。
その他にも例えば、推定部2020は、予め定めておいたオブジェクト20の特徴量を対象画像10の中から検出することにより、オブジェクト20の位置を推定してもよい。この際、オブジェクト20の特徴量として、その向きごとに特徴量を用意しておくことで、オブジェクト20の位置の推定だけでなく、オブジェクト20の向きの推定も行うことができる。
オブジェクト20の位置や向きは、1つの対象画像10だけでなく、複数の対象画像10を用いた時系列分析によって推定されてもよい。例えば、オブジェクト20の位置と向きを状態空間モデルで表し、時系列の対象画像10を用いてそのモデルのパラメータを推定することで、所望の時点におけるオブジェクト20の位置と向きを推定可能なモデルを得ることができる。なお、パラメータの推定には、カルマンフィルタやパーティクルフィルタなどといった種々のアルゴリズムを利用できる。
ここで前述したように、複数の物体の集まりや、1つの物体の一部を、オブジェクト20として扱ってもよい。複数の物体の集まりを1つのオブジェクト20として扱うケースにおいて、その位置及び向きを推定する技術には、例えば、特許文献2に開示されている群衆パッチを利用する技術を利用することができる。
<行列ライン40の生成>
行列ライン生成部2040は、行列ライン40を生成する。例えば行列ライン40の生成は、以下に示す流れで実現することができる。
まず、行列ライン生成部2040は、行列領域30に含まれる各オブジェクト20について推定された位置及び向きに基づいて、各オブジェクト20の位置及び向きを表す方向ベクトルを算出する。図5は、行列領域30に含まれる各オブジェクト20について算出された方向ベクトルを例示する図である。例えば、或るオブジェクト20の方向ベクトル60は、その始点がそのオブジェクト20について推定された位置であり、その向きがそのオブジェクト20について推定された向きであるベクトルとして算出される。
方向ベクトルの長さは、全ての方向ベクトルについて予め定められている固定の長さであってもよいし、方向ベクトルごとに異なる長さであってもよい。後者の場合、例えば、各方向ベクトル60を実世界にマッピングした場合にそれらの長さが同一となるように、各方向ベクトル60の長さを定める。カメラ50が斜め下を向いて撮像を行っている場合、同じ長さのものを撮像したとしても、その位置や方向によって、対象画像10上での長さが異なってくる。そこで例えば、実世界における方向ベクトル60の基準長を定めておく。そして、行列ライン生成部2040は、オブジェクト20について推定した位置及び向きに基づいて、実世界にマッピングした場合にその位置からその向きへ引いた基準長のベクトルとなる対象画像10上のベクトルとして、そのオブジェクト20に対応する方向ベクトル60を算出する。
行列ライン生成部2040は、方向ベクトルの順序づけを行う。例えば行列領域30の中に3つのオブジェクト20が含まれる場合、3つの方向ベクトル60の中から、先頭、2番目、及び3番目をそれぞれ特定することにより、方向ベクトル60が順序付けられる。以下、方向ベクトル60の順序づけを表す情報を、順序情報と呼ぶ。
方向ベクトル60の順序づけは、例えば各方向ベクトル60について、その終点を基準としてその方向ベクトル60と隣接する他の方向ベクトル60を特定することで実現できる。ここで、終点を基準として方向ベクトルA1と隣接する他の方向ベクトルA2は、少なくともその一部が行列領域30に含まれる方向ベクトル60のうち、その始点が方向ベクトルA1の終点に最も近い方向ベクトル60である。方向ベクトルA2に対応するオブジェクト20は、行列内において、方向ベクトルA1に対応するオブジェクト20の1つ前に位置するオブジェクト20となる。
このように、各方向ベクトル60について、その終点を基準としてその方向ベクトル60と隣接する他の方向ベクトル60を特定することにより、その1つ前に位置する方向ベクトル60(その方向ベクトル60に対応するオブジェクト20よりも1つ前に位置するオブジェクト20に対応する方向ベクトル60)を特定することができる。よって、各方向ベクトル60を順序づけることができる。
図6は、順序情報をテーブル形式で例示する図である。図6において、方向ベクトル60-1は、その終点を基準として方向ベクトル60-2と隣接している。また、方向ベクトル60-2は、その終点を基準として方向ベクトル60-3と隣接している。そのため、行列における方向ベクトル60の順序は、最後尾から順に、「方向ベクトル60-1、方向ベクトル60-2、及び方向ベクトル60-3」となる。
行列ライン生成部2040は、各方向ベクトル60及び順序情報を利用して、行列ライン40を生成する。例えば行列ライン生成部2040は、順序情報に示される順序に従って方向ベクトル60を連結することで、行列ライン40を生成する。より具体的には、行列ライン生成部2040は、各方向ベクトル60について、その方向ベクトル60の終点を、その終点を基準としてその方向ベクトル60と隣接する他の方向ベクトル60の始点と連結する。
図7は、方向ベクトル60を連結することで生成される行列ライン40を例示する図である。なお、図7では、図を分かりやすくするため、行列ライン40が方向ベクトル60と重ならないように、行列ライン40を方向ベクトル60から少しずれた位置に図示している。実際の運用では、行列ライン40は、方向ベクトル60と重なってよい。
図7が示す順序情報は、図6が示す順序情報と同じである。順序情報は、方向ベクトル60-1が、その終点を基準として、方向ベクトル60-2と隣接していることを示している。そこで行列ライン生成部2040は、方向ベクトル60-1の終点と方向ベクトル60-2の始点を連結する。また、順序情報は、方向ベクトル60-2が、その終点を基準として、方向ベクトル60-3と隣接していることを示している。そこで行列ライン生成部2040は、方向ベクトル60-2の終点と方向ベクトル60-3の始点を連結する。その結果、方向ベクトル60-1から方向ベクトル60-3を連結した行列ライン40が生成される。
方向ベクトル60と順序情報を利用して行列ライン40を生成する方法は、上述の方法に限定されない。例えば行列ライン生成部2040は、隣接する各方向ベクトル60の所定位置(例えば始点、中点、又は終点など)を連結していくことで、行列ライン40を生成してもよい。図8は、方向ベクトル60の中点を連結することで生成される行列ライン40を例示する図である。順序情報は、図6や図7の例と同じである。そこで行列ライン生成部2040は、方向ベクトル60-1の中点と方向ベクトル60-2の中点を連結し、かつ、方向ベクトル60-2の中点と方向ベクトル60-3の中点を連結することにより、行列ライン40を生成している。
行列ライン生成部2040は、方向ベクトル60の各点(始点、中点、終点など)の付近を通る1つの直線を生成する処理(いわゆる線形近似)を行い、その結果として得られる1つの直線を行列ライン40としてもよい。図9は、線形近似によって得られる行列ライン40を例示する図である。図9では、図を分かりやすくするため、オブジェクト20が省略されている。
図9の上段は、図7の例において線形近似を適用したケースである。行列ライン40は線形近似で得られた行列ラインを表し、点線の折れ線は図7における行列ライン40を表している。
図9の下段は、図8の例において線形近似を適用したケースである。行列ライン40は線形近似で得られた行列ラインを表し、点線の折れ線は図8における行列ライン40を表している。
なお、線形近似によって複数の点の付近を通る1つの直線を算出する具体的な手法には、既存の手法を利用することができる。
行列ライン生成部2040は、方向ベクトル60間の連結において、非線形の補間を行ってもよい。図10は、行列ライン40の生成において非線形の補間処理を行うケースを例示する図である。図10の上段は、図7の例において非線形の補間処理を適用したケースである。具体的には、方向ベクトル60-1の終点、方向ベクトル60-2の始点、方向ベクトル60-2の終点、及び方向ベクトル60-3の始点という順に連結するケースにおいて、これらを単純に連結(線形補間)するのではなく、これらの点又はその近くを通る滑らかな曲線として、行列ライン40が生成されている。
図10の下段は、図8の例において非線形の補間処理を適用したケースである。具体的には、方向ベクトル60-1の中点、方向ベクトル60-2の中点、及び方向ベクトル60-3の中点を連結するケースにおいて、これらの点又はその近くを通る滑らかな曲線として、行列ライン40が生成されている。
ここで、非線形補間によって特定の複数の点又はその近くを通る曲線を算出する具体的な手法には、種々の既存の手法を利用することができる。
<<行列ライン40として利用しうる形状>>
行列ライン40としては、線状の任意の形状を採用することができる。図11は、行列ライン40として利用しうる形状を例示する図である。行列ライン40には、実線(40-1)、点線(40-2)、又は一点鎖線(40-3)などといった任意の線を採用できる。また、行列ライン40には、中空の線(長方形を引き延ばしたような形状)を利用してもよい(40-4)。また、行列ライン40は、矢印であってもよい(40-5)。なお、行列ライン40の太さは任意である。
<情報の出力>
行列解析装置2000は、行列ライン40に関連する種々の情報を出力する。以下、この情報を出力情報と呼ぶ。また、出力情報を出力する機能構成部を、出力部と呼ぶ。図12は、出力情報生成部2060を有する行列解析装置2000の機能構成を例示するブロック図である。
出力情報は、様々な情報を含みうる。以下、出力情報に含まれうる様々な情報について説明する。
<<行列ライン40の提示>>
例えば出力情報生成部2060は、出力情報として、対象画像10に対して行列ライン40が重畳された画像(以下、結果画像)を生成する。図13は、結果画像を例示する図である。図13の結果画像70は、実線として実現された行列ライン40が対象画像10に重畳されたものである。また、この例では、行列領域も対象画像10に重畳されている。行列領域は、領域の境界をラインで重畳する、領域内部を半透明の色で重畳する、又は領域以外の輝度値を下げて領域を強調するなどといった任意の方法で重畳することができる。
ここで、出力情報生成部2060は、行列ライン生成部2040によって生成された行列ライン40を、その行列ライン40を生成するために利用された対象画像10のみに対して重畳してもよいし、その行列ライン40を生成するために利用された対象画像10以外の対象画像10に対してさらに重畳してもよい。例えば行列ライン生成部2040が、カメラ50から生成される30フレーム/秒の動画から、1秒間に1枚の割合で対象画像10を抽出し、抽出された対象画像10から行列ライン40を生成するとする。行列ライン40の生成に利用された対象画像10のみに行列ライン40を重畳する場合、結果画像70は、1フレーム/秒の時系列のデータとなる。すなわち、時系列の結果画像70は、オブジェクト20の位置と行列ライン40の変化を1フレーム/秒で表す。
一方、行列ライン40の生成に利用された対象画像10以外にも行列ライン40を重畳する場合、例えば出力情報生成部2060は、或る対象画像10から生成された行列ライン40を、その対象画像10だけでなく、その対象画像10よりも後に生成された29枚の対象画像10(次に行列ライン40の生成に利用される対象画像10よりも前の各対象画像10)に対しても重畳する。すなわち、1つの行列ライン40が1秒間の動画に重畳される。このケースにおいて、時系列の結果画像70は、オブジェクト20の位置の変化を30フレーム/秒で表し、行列ライン40の変化を1フレーム/秒で表す。
<<先頭と最後尾の提示>>
出力情報は、さらに、行列の先頭位置及び最後尾位置のいずれか一方又は双方を表す情報を含んでもよい。図14は、行列の先頭位置及び最後尾位置が示されている結果画像70を例示する図である。図14の結果画像70は、先頭位置であることを表す先頭マーカ72と、最後尾位置であることを表す最後尾マーカ74とがそれぞれ、対象画像10に重畳されたものである。
行列の先頭位置と最後尾位置を特定する方法は様々である。例えば出力情報生成部2060は、行列ライン40の端点のうち、方向ベクトル60の順序づけにおいて、先頭の方向ベクトル60に対応する方の端点を、行列の先頭位置として特定する。一方、出力情報生成部2060は、行列ライン40の端点のうち、方向ベクトル60の順序づけにおいて、最後尾の方向ベクトル60に対応する方の端点を、行列の最後尾位置として特定する。
また、レジカウンタの前にできる行列などのように、行列の先頭位置のおおよその位置が予め分かる場合がある。この場合、行列の先頭位置となると予測される位置を予め定めておく。そして、出力情報生成部2060は、行列ライン40の端点のうち、上記予測の位置に近い方を行列の先頭位置として特定し、他方の位置を行列の最後尾位置として特定する。
ここで、図13や図14の結果画像70には、行列領域30の外枠を表す点線の枠が含まれている。しかしながら、結果画像70は、行列領域30を表す枠が含まれなくてもよい。
<<待ち時間の提示>>
出力情報生成部2060は、行列ライン40を用いて、行列の任意の位置における待ち時間を算出してもよい。この場合、オブジェクト20は原則として、行列ライン40の最後尾から行列に加わり、行列ライン40の最後尾から先頭へ向けて進んでいき、最後に先頭位置から行列を離脱するものとする。そして、行列の或る位置における待ち時間とは、オブジェクト20がその位置に到達してから、行列の先頭から離脱するまでに要する時間を意味する。
例えば出力情報生成部2060は、行列の最後尾における待ち時間を算出する。行列の最後尾における待ち時間は、例えば、行列ライン40の長さ又は行列領域30の大きさ(面積)に基づいて算出される。この場合、行列ライン40の単位長さ又は行列領域30の単位面積に対応する待ち時間を予め定めておく。そして、出力情報生成部2060は、行列ライン40の長さに対して、行列ライン40の単位長さに対応する待ち時間を掛けるか、又は行列領域30の面積に対して、行列領域30の単位面積に対応する待ち時間を掛けることにより、行列の最後尾における待ち時間を算出する。
図15は、最後尾の待ち時間が示されている結果画像70を例示する図である。図15の結果画像70は、図14の結果画像70に対し、行列ライン40の最後尾における待ち時間を表す待ち時間表示90がさらに加えられたものである。
行列解析装置2000によれば、行列が構成される場所が予め定められておらず、どこにどのよう形状で行列が形成されるか分からないような状況でも、行列の最後尾における待ち時間を算出することができる。
待ち時間の算出対象とする位置(以下、対象位置)は、行列ライン40の最後尾に限定されない。行列ライン40の最後尾以外の任意の位置を対象位置として扱う場合、出力情報生成部2060は、行列の最後尾における待ち時間に基づいて、対象位置における待ち時間を算出する。具体的には、まず、出力情報生成部2060は、行列ライン40に沿って、行列の先頭から対象位置までの長さを算出する。そして、出力情報生成部2060は、算出した長さと行列ライン40の全長との比率(算出した長さ/行列ライン40の全長)を算出する。そして、出力情報生成部2060は、行列の最後尾における待ち時間に対し、算出した比率を掛けることで、対象位置における待ち時間を算出する。その他にも例えば、待ち時間は、行列の先頭から対象位置までの行列ライン40の長さや行列領域30の大きさ(面積)に対して、行列ライン40の単位長さに対応する待ち時間を掛けるか又は行列領域30の単位面積に対応する待ち時間を掛けることにより、算出されてもよい。
行列解析装置2000によれば、行列の先頭から行列上の各位置までの距離を行列ライン40に沿って算出できる。そのため、行列ライン40を利用しない場合と比較し、行列の任意の位置における待ち時間をより正確に把握することができる。
対象位置は、所定の基準に基づいて出力情報生成部2060によって自動的に決定されてもよいし、ユーザによって指定されてもよい。前者の場合、例えば、出力情報生成部2060は、行列ライン40を所定数に分割した場合における各分割点及び最後尾を、対象位置として扱う。例えば、所定数が3である場合、行列ライン40を3等分する分割点として、2つの点が定まる。そこで出力情報生成部2060は、これら2つの点及び最後尾それぞれを対象点として扱い、それらの対象点について待ち時間を算出する。
対象位置がユーザによって指定される場合、例えば行列解析装置2000は、結果画像70を含む画面をディスプレイ装置に表示し、行列ライン40上の点を指定するユーザ入力を受け付ける。出力情報生成部2060は、このようにして指定された点を対象位置として扱う。
図16は、最後尾以外の位置についても待ち時間が示されている結果画像70を例示する図である。図16では、分割位置100と分割位置110により、行列ライン40が3等分されている。そして、結果画像70には、分割位置100を表す表示102、分割位置100における待ち時間を表す表示104、分割位置110を表す表示112、及び分割位置110における待ち時間を表す表示114が含まれている。
なお、上記では、待ち時間の算出方法として、行列ライン40の長さ又は行列領域30の大きさ(面積)に基づいて算出したが、同様に行列ライン40上の人の数に基づいて算出してもよい。例えば、先頭から対象位置までの人の数に対して、一人当たりの待ち時間(行列の先頭に移動してから行列を抜けるまでに要する時間)を掛けることにより、対象位置における待ち時間を算出することができる。この場合、一人当たりの待ち時間を予め定めておく。
<<過去の行列ライン40の提示>>
出力情報生成部2060は、行列ライン生成部2040によって生成された行列ライン40(最新の行列ライン40)に加え、その行列ライン40によって表される行列と同じ行列について過去に算出された1つ以上の行列ライン40を、結果画像70に含めてもよい。なお、ここでいう「同じ行列」とは、同じレジカウンタの前に互いに異なる時点で存在する行列などのように、同じ場所にできる行列や、先頭から離脱したオブジェクト20が同じ設備や場所を利用する行列などを意味する。
図17は、過去の行列ライン40が含まれる結果画像70を例示する図である。図17では、各行列ライン40を識別できるように、各行列ライン40に互いに異なる種類の線を用い、なおかつ、行列ライン40の最後尾付近に、行列ライン40に対応する時点を表す表示(「現在」や「X分前」など)を示している。行列ライン40に対応する時点は、例えば、行列ライン40の生成時点や、行列ライン40の生成に用いられた対象画像10が生成された時点である。行列ライン40に対応する時点は、絶対的な時点(日時など)で表されてもよいし、所定の時点(例えば現在時刻)を基準とする相対的な時点で表されてもよい。図17の場合は後者である。
このように過去の行列ライン40も一緒に提示することにより、現在と過去の行列ライン40を容易に比較できるため、行列に関連した種々の情報(行列の長さの変化や行列の位置の変化など)を容易に得ることができる。例えば行列の長さが長くなる傾向にあることが分かれば、混雑緩和のための対処が必要であることを把握できる。その他にも例えば、行列の位置が想定外の位置に向けて移動する傾向にあることが分かれば、行列の整列などといった対処が必要であることを把握できる。
ここで、互いに異なる時点における複数の行列ライン40が同一の行列を表しているかどうかを判定する方法は様々である。例えば、或る時点で生成された行列ライン40に対応する行列領域30と、他の時点で生成された行列ライン40に対応する行列領域30とが互いに重複している場合に、それらの行列ライン40によって表されている行列が同一であると判定する。この際、行列領域30の重複度合いに閾値を設け、重複度合いが閾値以上である場合に、対応する行列ライン40同士が同一の行列を表していると推定してもよい。
その他にも例えば、出力情報生成部2060は、互いに異なる時点における2つの行列ライン40の先頭位置の間の距離が閾値以下である場合に、それらの行列ライン40が同じ行列を表していると判定してもよい。この方法によれば、同じ設備や場所を利用するオブジェクト20の行列が互いに違う方向へ延びて形成された場合であっても、これらの行列を同じ行列として扱うことができる。
<<対象画像10以外への行列ライン40の提示>>
前述した説明において、行列ライン40等の情報は、対象画像10に対して重畳されていた。しかしながら、行列ライン40等の情報は、その他の画像等に重畳されてもよい。
例えば出力情報生成部2060は、オブジェクト20が含まれない時間にカメラ50から得られた画像に対して、行列ライン40等の情報を重畳することで、結果画像70を生成してもよい。例えば、店舗等であれば、営業時間外にカメラ50による撮像を行うことで、オブジェクト20が含まれない画像を得ることができる。このような画像は、例えば、背景画像と呼ぶことができる。
その他にも例えば、出力情報生成部2060は、カメラ50の撮像範囲を含む地図画像に対して、行列ライン40等の情報を重畳することで、結果画像70を生成してもよい。この場合、行列ライン40を、地図画像上の対応する位置にマッピングする必要がある。すなわち、対象画像10上の座標を、地図画像上の座標に変換できる必要がある。ここで、カメラによって生成された画像上の座標を、そのカメラの撮像範囲を含む地図画像上の座標に変換する技術には、既存の技術を利用することができる。
<<将来の予測>>
出力情報生成部2060は、同一の行列について生成された複数の行列ライン40を用いて、その行列についての将来の行列ライン40を生成してもよい。具体的には、出力情報生成部2060は、同一の行列について生成された複数の行列ライン40を用いて、行列ライン40の時間変化を推定し、その推定結果を用いて、将来の或る時点における行列ライン40を生成する。
図18は、将来の行列ライン40を推定する方法を例示する図である。この例において、出力情報生成部2060は、現在の行列ライン40(行列ライン40-1)、15分前の行列ライン40(行列ライン40-2)、及び30分前の行列ライン40(行列ライン40-3)を用いて、15分後の行列ライン40(行列ライン40-4)を生成している。
具体的には、まず出力情報生成部2060は、行列ライン40-1から行列ライン40-3それぞれを4等分する。ここで、各行列ライン40において、行列ライン40を分割する位置を先頭に近いものから順に、第2分割位置、第3分割位置、及び第4分割位置と呼ぶ。
出力情報生成部2060は、現在及び過去の行列ライン40を用いて、各分割位置及び最後尾位置の時間変化を推定する。例えば出力情報生成部2060は、行列ライン40-3の第2分割位置、行列ライン40-2の第2分割位置、及び行列ライン40-1の第2分割位置に基づいて、第2分割位置の時間変化を推定する(例えば、その時間変化を表す関数を生成する)。そして出力情報生成部2060は、予測したい時点(図18の場合は15分後)と推測した第2分割位置の時間変化に基づいて(例えば、生成した関数に予測したい時点を入力して)、その時点における第2分割位置を算出する(推定する)。
同様に、出力情報生成部2060は、第3分割位置、第4分割位置、及び最後尾位置それぞれについてもその時間変化を推定し、予測したい時点と推定した時間変化に基づいて、その時点における第3分割位置、第4分割位置、及び最後尾位置を算出する(推定する)。
そして出力情報生成部2060は、先頭位置、推定した第2分割位置、推定した第3分割位置、推定した第4分割位置及び、推定した最後尾位置を連結することで、予測したい時点における行列ライン40-4を生成する。なお、複数の位置を連結して行列ライン40を生成する方法には、前述したように、単純な連結で行列ライン40を得る方法、線形近似で行列ライン40を得る方法、非線形補間で行列ライン40を得る方法などといった様々な方法を採用できる。
なお、図18の例では先頭位置が移動しないことを前提としているが、先頭位置も最後尾位置などと同様に移動してもよい。この場合、例えば出力情報生成部2060は、先頭位置についても最後尾位置などと同様に時間変化を推定し、推定した時間変化に基づいて、将来の先頭位置を推定する。
ここで、行列ライン40を予測する将来の時点は、現在時刻との関係が予め定められた時点(例えば、15分後や1時間後など)であってもよいし、ユーザによって指定される任意の時点であってもよい。後者の場合、行列解析装置2000は、予測したい時点を示す入力をユーザから受け付け、指定された時点について行列ライン40を生成する。
将来についての行列ライン40を生成する方法は、前述した方法に限定されない。例えば、現在及び過去の行列ライン40が入力されたことに応じて将来の行列ライン40を出力するように学習された推定器を設けてもよい。例えば、「現在の行列ライン40、15分前の行列ライン40、30分前の行列ライン40、予測時点」が入力されたことに応じて、予測時点における行列ライン40を生成する推定器を設けるとする。この場合、「現在の行列ライン40、15分前の行列ライン40、30分前の行列ライン40、予測時点、予測時点における行列ライン40」というセットを学習データとして用いて、推定器を学習する。具体的には、推定器に対して「現在の行列ライン40、15分前の行列ライン40、30分前の行列ライン40、予測時点」を入力し、推定器から出力された行列ライン40と学習データに含まれる予測時点の行列ライン40との誤差を表す損失を算出し、算出した損失に基づいて推定器のパラメータを更新する。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 対象画像に含まれるオブジェクトの位置及び向きを推定する推定部と、
前記対象画像においてオブジェクトの行列を含む領域である行列領域について、その行列領域に含まれるオブジェクトについて推定された位置及び向きに基づいて、その行列領域に含まれる行列を線で表す行列ラインを生成する行列ライン生成部と、を有する行列解析装置。
2. 前記行列ライン生成部は、前記行列を構成する各オブジェクトの位置及び向きを表す方向ベクトルについて、方向ベクトル間の隣接関係に基づく順序づけを行い、前記行列を構成する各前記オブジェクトの方向ベクトル及びそれらの順序に基づいて、前記行列ラインを生成する、1.に記載の行列解析装置。
3. 前記行列ライン生成部は、各前記方向ベクトルについて、その方向ベクトルの終点と、その方向ベクトルよりも1つ前に位置する他の方向ベクトルの始点とを連結した線を生成し、前記生成した各線と各前記方向ベクトルによって前記行列ラインを生成する、2.に記載の行列解析装置。
4. 前記行列ライン生成部は、順序づけた前記方向ベクトルに対して線形近似又は非線形の補間を行うことで、前記行列ラインを生成する、2.に記載の行列解析装置。
5. 前記行列ラインが含まれる結果画像を含む出力情報を生成する出力情報生成部を有する、1.乃至4.いずれか一つに記載の行列解析装置。
6. 前記結果画像は、前記対象画像、前記対象画像と同じ範囲が含まれる背景画像、及び前記対象画像と同じ範囲が含まれる地図画像のいずれか1つに対して前記行列ラインが重畳されたものである、5.に記載の行列解析装置。
7. 前記出力情報生成部は、前記行列ラインによって表される行列について、その行列が含まれる行列領域内のオブジェクトの位置及び向きに基づいて、その行列の先頭及び最後尾のいずれか1つ以上を推定し、前記推定した先頭及び最後尾のいずれか1つ以上を表す表示を前記結果画像に含める、5.又は6.に記載の行列解析装置。
8. 前記出力情報生成部は、前記行列ラインの先頭とその行列ライン上の他の位置とについて、前記行列ラインに沿った距離を算出し、前記算出した距離に基づいて、前記他の位置における前記行列の待ち時間を算出し、前記算出した待ち時間を前記出力情報に含める、5.乃至7.いずれか一つに記載の行列解析装置。
9. 前記出力情報生成部は、前記対象画像から生成された前記行列ラインによって表される行列について過去に生成された行列ラインを前記結果画像に含める、5.乃至8.いずれか一つに記載の行列解析装置。
10. 前記出力情報生成部は、前記対象画像から生成された前記行列ラインと、その行列ラインによって表される行列について過去に生成された行列ラインとに基づいて、行列ラインの時間変化を推定し、前記推定した行列ラインの時間変化に基づいて、その行列について将来の行列ラインを生成し、前記生成した将来の行列ラインを前記結果画像に含める、6.乃至9.いずれか一つに記載の行列解析装置。
11. コンピュータによって実行される制御方法であって、
対象画像に含まれるオブジェクトの位置及び向きを推定する推定ステップと、
前記対象画像においてオブジェクトの行列を含む領域である行列領域について、その行列領域に含まれるオブジェクトについて推定された位置及び向きに基づいて、その行列領域に含まれる行列を線で表す行列ラインを生成する行列ライン生成ステップと、を有する制御方法。
12. 前記行列ライン生成ステップにおいて、前記行列を構成する各オブジェクトの位置及び向きを表す方向ベクトルについて、方向ベクトル間の隣接関係に基づく順序づけを行い、前記行列を構成する各前記オブジェクトの方向ベクトル及びそれらの順序に基づいて、前記行列ラインを生成する、11.に記載の制御方法。
13. 前記行列ライン生成ステップにおいて、各前記方向ベクトルについて、その方向ベクトルの終点と、その方向ベクトルよりも1つ前に位置する他の方向ベクトルの始点とを連結した線を生成し、前記生成した各線と各前記方向ベクトルによって前記行列ラインを生成する、12.に記載の制御方法。
14. 前記行列ライン生成ステップにおいて、順序づけた前記方向ベクトルに対して線形近似又は非線形の補間を行うことで、前記行列ラインを生成する、12.に記載の制御方法。
15. 前記行列ラインが含まれる結果画像を含む出力情報を生成する出力情報生成ステップを有する、11.乃至14.いずれか一つに記載の制御方法。
16. 前記結果画像は、前記対象画像、前記対象画像と同じ範囲が含まれる背景画像、及び前記対象画像と同じ範囲が含まれる地図画像のいずれか1つに対して前記行列ラインが重畳されたものである、15.に記載の制御方法。
17. 前記出力情報生成ステップにおいて、前記行列ラインによって表される行列について、その行列が含まれる行列領域内のオブジェクトの位置及び向きに基づいて、その行列の先頭及び最後尾のいずれか1つ以上を推定し、前記推定した先頭及び最後尾のいずれか1つ以上を表す表示を前記結果画像に含める、15.又は16.に記載の制御方法。
18. 前記出力情報生成ステップにおいて、前記行列ラインの先頭とその行列ライン上の他の位置とについて、前記行列ラインに沿った距離を算出し、前記算出した距離に基づいて、前記他の位置における前記行列の待ち時間を算出し、前記算出した待ち時間を前記出力情報に含める、15.乃至17.いずれか一つに記載の制御方法。
19. 前記出力情報生成ステップにおいて、前記対象画像から生成された前記行列ラインによって表される行列について過去に生成された行列ラインを前記結果画像に含める、15.乃至18.いずれか一つに記載の制御方法。
20. 前記出力情報生成ステップにおいて、前記対象画像から生成された前記行列ラインと、その行列ラインによって表される行列について過去に生成された行列ラインとに基づいて、行列ラインの時間変化を推定し、前記推定した行列ラインの時間変化に基づいて、その行列について将来の行列ラインを生成し、前記生成した将来の行列ラインを前記結果画像に含める、16.乃至19.いずれか一つに記載の制御方法。
21. 11.乃至20.いずれか一つに記載の制御方法をコンピュータに実行させるプログラム。
10 対象画像
20 オブジェクト
30 行列領域
40 行列ライン
50 カメラ
60 方向ベクトル
70 結果画像
72 先頭マーカ
74 最後尾マーカ
90 待ち時間表示
100 分割位置
102 表示
104 表示
110 分割位置
112 表示
114 表示
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 行列解析装置
2020 推定部
2040 行列ライン生成部
2060 出力情報生成部

Claims (14)

  1. 対象画像においてオブジェクトの行列を含む行列領域を特定する特定部と、
    前記行列領域に含まれる前記オブジェクトの位置及び向きを推定する推定部と、
    前記行列領域に含まれる前記オブジェクトについて推定された位置及び向きに基づいて、その行列領域に含まれる行列を線で表す行列ラインを生成する行列ライン生成部と、
    前記行列ラインが含まれる結果画像を含む出力情報を生成する出力情報生成部と、
    を有し、
    前記結果画像は、前記対象画像、前記対象画像と同じ範囲が含まれる背景画像、及び前記対象画像と同じ範囲が含まれる地図画像のいずれか1つに対して前記行列ラインが重畳されたものであり、
    前記出力情報生成部は、前記対象画像から生成された前記行列ラインと、その行列ラインによって表される行列について過去に生成された行列ラインとに基づいて、行列ラインの時間変化を推定し、前記推定した行列ラインの時間変化に基づいて、その行列について将来の行列ラインを生成し、前記生成した将来の行列ラインを前記結果画像に含める、
    行列解析装置。
  2. 前記行列ライン生成部は、前記行列を構成する各オブジェクトの位置及び向きを表す方向ベクトルについて、方向ベクトル間の隣接関係に基づく順序づけを行い、前記行列を構成する各前記オブジェクトの方向ベクトル及びそれらの順序に基づいて、前記行列ラインを生成する、請求項1に記載の行列解析装置。
  3. 前記行列ライン生成部は、各前記方向ベクトルについて、その方向ベクトルの終点と、その方向ベクトルよりも1つ前に位置する他の方向ベクトルの始点とを連結した線を生成し、前記生成した各線と各前記方向ベクトルによって前記行列ラインを生成する、請求項2に記載の行列解析装置。
  4. 前記行列ライン生成部は、順序づけた前記方向ベクトルに対して線形近似又は非線形の補間を行うことで、前記行列ラインを生成する、請求項2に記載の行列解析装置。
  5. 前記出力情報生成部は、前記行列ラインによって表される行列について、その行列が含まれる行列領域内のオブジェクトの位置及び向きに基づいて、その行列の先頭及び最後尾のいずれか1つ以上を推定し、前記推定した先頭及び最後尾のいずれか1つ以上を表す表示を前記結果画像に含める、請求項1乃至4いずれか一項に記載の行列解析装置。
  6. 前記出力情報生成部は、前記行列ラインの先頭とその行列ライン上の他の位置とについて、前記行列ラインに沿った距離を算出し、前記算出した距離に基づいて、前記他の位置における前記行列の待ち時間を算出し、前記算出した待ち時間を前記出力情報に含める、請求項乃至いずれか一項に記載の行列解析装置。
  7. 前記出力情報生成部は、前記対象画像から生成された前記行列ラインによって表される行列について過去に生成された行列ラインを前記結果画像に含める、請求項乃至いずれか一項に記載の行列解析装置。
  8. コンピュータによって実行される制御方法であって、
    対象画像においてオブジェクトの行列を含む行列領域を特定する特定ステップと、
    前記行列領域に含まれる前記オブジェクトの位置及び向きを推定する推定ステップと、
    前記行列領域に含まれる前記オブジェクトについて推定された位置及び向きに基づいて、その行列領域に含まれる行列を線で表す行列ラインを生成する行列ライン生成ステップと、
    前記行列ラインが含まれる結果画像を含む出力情報を生成する出力情報生成ステップと、を有し、
    前記結果画像は、前記対象画像、前記対象画像と同じ範囲が含まれる背景画像、及び前記対象画像と同じ範囲が含まれる地図画像のいずれか1つに対して前記行列ラインが重畳されたものであり、
    前記出力情報生成ステップにおいて、前記対象画像から生成された前記行列ラインと、その行列ラインによって表される行列について過去に生成された行列ラインとに基づいて、行列ラインの時間変化を推定し、前記推定した行列ラインの時間変化に基づいて、その行列について将来の行列ラインを生成し、前記生成した将来の行列ラインを前記結果画像に含める、
    制御方法。
  9. 前記行列ライン生成ステップにおいて、前記行列を構成する各オブジェクトの位置及び向きを表す方向ベクトルについて、方向ベクトル間の隣接関係に基づく順序づけを行い、前記行列を構成する各前記オブジェクトの方向ベクトル及びそれらの順序に基づいて、前記行列ラインを生成する、請求項に記載の制御方法。
  10. 前記行列ライン生成ステップにおいて、順序づけた前記方向ベクトルに対して線形近似又は非線形の補間を行うことで、前記行列ラインを生成する、請求項に記載の制御方法。
  11. 前記出力情報生成ステップにおいて、前記行列ラインによって表される行列について、その行列が含まれる行列領域内のオブジェクトの位置及び向きに基づいて、その行列の先頭及び最後尾のいずれか1つ以上を推定し、前記推定した先頭及び最後尾のいずれか1つ以上を表す表示を前記結果画像に含める、請求項8乃至10いずれか一項に記載の制御方法。
  12. 前記出力情報生成ステップにおいて、前記行列ラインの先頭とその行列ライン上の他の位置とについて、前記行列ラインに沿った距離を算出し、前記算出した距離に基づいて、前記他の位置における前記行列の待ち時間を算出し、前記算出した待ち時間を前記出力情報に含める、請求項乃至11いずれか一項に記載の制御方法。
  13. 前記出力情報生成ステップにおいて、前記対象画像から生成された前記行列ラインによって表される行列について過去に生成された行列ラインを前記結果画像に含める、請求項乃至12いずれか一項に記載の制御方法。
  14. 請求項乃至13いずれか一項に記載の制御方法をコンピュータに実行させるプログラム。
JP2021575579A 2020-02-07 2020-02-07 行列解析装置、制御方法、及びプログラム Active JP7384225B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/004934 WO2021157085A1 (ja) 2020-02-07 2020-02-07 行列解析装置、制御方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2021157085A1 JPWO2021157085A1 (ja) 2021-08-12
JPWO2021157085A5 JPWO2021157085A5 (ja) 2022-09-20
JP7384225B2 true JP7384225B2 (ja) 2023-11-21

Family

ID=77199803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021575579A Active JP7384225B2 (ja) 2020-02-07 2020-02-07 行列解析装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230048567A1 (ja)
JP (1) JP7384225B2 (ja)
WO (1) WO2021157085A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317052A (ja) 2006-05-29 2007-12-06 Japan Airlines International Co Ltd 行列の待ち時間の計測システム
JP5613815B1 (ja) 2013-10-29 2014-10-29 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP2018106385A (ja) 2016-12-26 2018-07-05 株式会社日立製作所 行列の待ち時間算出システム、行列の待ち時間算出方法及びプログラム
JP2019121987A (ja) 2018-01-10 2019-07-22 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317052A (ja) 2006-05-29 2007-12-06 Japan Airlines International Co Ltd 行列の待ち時間の計測システム
JP5613815B1 (ja) 2013-10-29 2014-10-29 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP2018106385A (ja) 2016-12-26 2018-07-05 株式会社日立製作所 行列の待ち時間算出システム、行列の待ち時間算出方法及びプログラム
JP2019121987A (ja) 2018-01-10 2019-07-22 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20230048567A1 (en) 2023-02-16
WO2021157085A1 (ja) 2021-08-12
JPWO2021157085A1 (ja) 2021-08-12

Similar Documents

Publication Publication Date Title
JP6902122B2 (ja) ダブル視野角画像較正および画像処理方法、装置、記憶媒体ならびに電子機器
KR102281017B1 (ko) 이미지 처리를 위한 신경망 모델 훈련 방법, 장치 및 저장 매체
KR102292559B1 (ko) 단안 이미지 깊이 추정 방법 및 장치, 기기, 프로그램 및 저장 매체
US10846836B2 (en) View synthesis using deep convolutional neural networks
US10991111B2 (en) Method and apparatus for refining depth image
CN108833785B (zh) 多视角图像的融合方法、装置、计算机设备和存储介质
JP6044134B2 (ja) 最適画像サイズによる画像領域分割装置、方法、およびプログラム
CN109005334B (zh) 一种成像方法、装置、终端和存储介质
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN112509047A (zh) 基于图像的位姿确定方法、装置、存储介质及电子设备
JP7211428B2 (ja) 情報処理装置、制御方法、及びプログラム
CN113610835B (zh) 看护摄像机的人形检测方法
JP7384225B2 (ja) 行列解析装置、制御方法、及びプログラム
WO2018179119A1 (ja) 映像解析装置、映像解析方法および記録媒体
WO2012153868A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR20210057925A (ko) 스트리밍 서버 및 이를 이용한 다시점 동영상에서의 객체 처리 방법
CN108093153B (zh) 目标跟踪方法、装置、电子设备及存储介质
CN114071015B (zh) 一种联动抓拍路径的确定方法、装置、介质及设备
CN109492755B (zh) 图像处理方法、图像处理装置和计算机可读存储介质
US10818264B2 (en) Generating virtual reality and augmented reality content for a live event
JP7371704B2 (ja) 流量情報出力装置、制御方法、及びプログラム
CN117456097B (zh) 一种三维模型构建方法及装置
JPWO2020039898A1 (ja) 駅監視装置、駅監視方法及びプログラム
JP4966946B2 (ja) 時空間画像分離装置、時空間画像分離方法および時空間画像分離プログラム
JP7074694B2 (ja) 情報端末装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R151 Written notification of patent or utility model registration

Ref document number: 7384225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151