JP7113622B2 - 情報処理装置およびその制御方法 - Google Patents

情報処理装置およびその制御方法 Download PDF

Info

Publication number
JP7113622B2
JP7113622B2 JP2018001993A JP2018001993A JP7113622B2 JP 7113622 B2 JP7113622 B2 JP 7113622B2 JP 2018001993 A JP2018001993 A JP 2018001993A JP 2018001993 A JP2018001993 A JP 2018001993A JP 7113622 B2 JP7113622 B2 JP 7113622B2
Authority
JP
Japan
Prior art keywords
queue
objects
image
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001993A
Other languages
English (en)
Other versions
JP2019121278A (ja
Inventor
哲広 船城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018001993A priority Critical patent/JP7113622B2/ja
Priority to US16/235,050 priority patent/US10817727B2/en
Publication of JP2019121278A publication Critical patent/JP2019121278A/ja
Application granted granted Critical
Publication of JP7113622B2 publication Critical patent/JP7113622B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、待ち行列における待ち時間を推定する技術に関するものである。
利用施設において利用者が待ち行列を形成している場合の待ち時間を推定し報知するシステム等が知られている。例えば、待ち時間を推定し報知するシステムとして、行列をなしている利用者の画像を撮像し、画像解析により利用者の移動軌跡を検出し、利用者が形成する待ち行列を識別するシステムが知られている。
特許文献1では、利用施設の利用に要する単位平均時間と、識別した利用者の待ち行列と、に基づき、利用者が利用施設を利用可能になるまでの待ち時間を算出し報知するシステムが開示されている。また、特許文献2では、人の待ち行列の撮影画像から、人物およびグループを認識し、特定の人物またはグループの移動時間を計測し、待ち時間を推測する技術が開示されている。
特開2005-316582号公報 特開2004-287752号公報
しかしながら、上述の従来技術では、待ち行列が混雑し撮像画像において複数の人物が重なってしまう場合などには、人物の識別精度が低下し移動距離の算出および待ち時間の計算に誤差が大きくなるという課題がある。
本発明はこのような課題を鑑みてなされたものであり、待ち行列における待ち時間をより高精度に推定可能とする技術を提供することを目的とする。
上述の課題を解決するため、本発明に係る情報処理装置は以下の構成を備える。すなわち、複数のオブジェクトにより構成される待ち行列における待ち時間を推定する情報処理装置は、
前記待ち行列を撮影した画像において検出されたオブジェクトの個数を取得する第1の取得手段と、
単位時間あたりに前記待ち行列から出たオブジェクトの個数を取得する第2の取得手段と、
前記第1の取得手段により取得された個数が所定の閾値以上である場合に、前記第1の取得手段により取得された個数に補正係数を乗じることにより、前記第1の取得手段により取得された個数を、当該個数よりも多くなるように補正する補正手段と、
前記第1の取得手段により取得された個数が前記所定の閾値以上である場合には、前記補正手段により補正された個数と、前記第2の取得手段により取得された個数とに基づいて前記待ち行列における待ち時間を推定する推定手段と、
を有する
本発明によれば、待ち行列における待ち時間をより高精度に推定可能とする技術を提供することができる。
待ち時間推定システムの全体構成を示す図である。 情報処理装置及びネットワークカメラのハードウェア構成を示す図である。 情報処理装置の機能構成を示す図である。 検知部の詳細構成を示す図である。 人数算出部の詳細構成を示す図である。 待ち時間算出部の詳細構成を示す図である。 情報処理装置の動作を示すフローチャートである。 例示的な待ち行列の状況を説明する図である。 第1実施形態における人数算出処理の詳細フローチャートである。 第2実施形態における人数算出処理の詳細フローチャートである。
以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
(第1実施形態)
本発明に係る情報処理装置の第1実施形態として、ネットワークカメラにより撮像された待ち行列の画像に基づいて待ち時間を推定するシステムを例に挙げて以下に説明する。
<システム構成>
図1は、待ち時間推定システムの全体構成を示す図である。図1(a)は、システム構成の一例を示す図であり、図1(b)は、想定する待ち行列の状況を説明する図である。
待ち時間推定システムは、情報処理装置100、1以上のネットワークカメラ102、1以上のネットワークカメラ103を含む。情報処理装置100、ネットワークカメラ102、ネットワークカメラ103は、ネットワーク101を介して相互に通信可能に接続されている。
図1(b)は、待ち行列及び複数のネットワークカメラの配置を例示的に示している。ここでは、待ち行列は、予め設定された敷居等(実線の部分)で区切られた領域に存在する複数の人体により構成されている。1台のネットワークカメラ102は待ち行列の出口(先頭位置)を撮影するように配置されている。また、3台のネットワークカメラ103は、待ち行列を互いに異なるアングルで撮影するよう配置され、3台で当該待ち行列全体を撮影可能に配置されている。
待ち時間推定システムは、待ち行列における待ち時間を推定する。待ち行列における待ち時間とは、待ち行列の最後尾に新規に並んだオブジェクト(人体)が当該待ち行列の先頭位置まで進み出て当該待ち行列から出ていくまでにかかる時間のことである。ここでは、待ち時間推定システムは、タクシー乗り場で順番待ちをしている複数の人物で構成される待ち行列における待ち時間を推定することとする。すなわち、待ち行列の最後尾に並んだ時刻からタクシーに乗る時刻までの所要時間を推定する。
なお、待ち時間推定システムは、他の待ち行列の待ち時間を推定することとしてもよい。例えば、待ち時間推定システムは、金融機関のATMコーナー、遊園地やテーマパークにおけるアトラクションにおいて順番待ちしている複数の人物から構成される待ち行列の待ち時間を推定することも可能である。また、待ち時間推定システムは、工場のレーン上で加工処理が行われるのを待機している複数の中間加工品により構成される待ち行列の待ち時間を推定してもよい。また、待ち時間推定システムは、運送用の貨物を一時保管する倉庫におけるレーン上で、運送先の振分け処理が行われるのを待機している複数の貨物により構成される待ち行列の待ち時間を推定してもよい。
情報処理装置100は、待ち行列を撮影した静止画や動画等の画像をネットワークカメラ102、103から取得し、待ち行列の待ち時間を推定する装置である。情報処理装置100は、例えば、パーソナルコンピュータ(PC)、サーバ装置、タブレット装置等の情報処理装置である。
ネットワークカメラ102は、待ち行列の出口(先頭位置)付近を撮影し、撮影した静止画や動画等の画像を情報処理装置100に送信するネットワークカメラである。一方、ネットワークカメラ103は、待ち行列の画像をネットワークカメラ102とは異なる方向から撮影し、撮影した画像を、情報処理装置100に送信するネットワークカメラである。
図1(b)の例では、1以上のネットワークカメラ103は、待ち行列の全体を撮影し、撮影した画像を情報処理装置100に送信する。情報処理装置100は、1以上のネットワークカメラ103から送信された画像から、人物を検知し、検知した人物の数を、待ち行列内のオブジェクト数(人数)とする。また、1以上のネットワークカメラ102は、待ち行列の出口付近を撮影し、撮影した画像を情報処理装置100に送信する。情報処理装置100は、ネットワークカメラ102から送信された画像から、待ち行列から出ていく人物を検知するごとに、検知した時刻を記憶する。情報処理装置100は、例えば、時系列上で連続した複数のフレーム画像から、待ち行列の出口を通過する人物を検知する。
図2は、情報処理装置100及びネットワークカメラ102のハードウェア構成を示す図である。図2(a)は、情報処理装置100のハードウェア構成を示し、図2(b)は、ネットワークカメラ102のハードウェア構成を示している。
情報処理装置100は、メモリ110、CPU111、通信制御部112、入力制御部113、表示制御部114を含む。
メモリ110は、各種プログラム、各種設定データ、各種閾値データ、待ち行列が撮影された画像データ等を記憶する記憶装置である。メモリ110は、例えば、ハードディスク、光ディスク、メモリカード、ソリッドステートドライブ等により構成される。CPU111は、情報処理装置100の処理を制御する中央演算装置である。
通信制御部112は、ネットワークを介した外部の装置との通信に利用される通信制御部である。入力制御部113は、入力装置120を介した情報処理装置100への情報の入力を制御する入力制御部である。表示制御部114は、表示装置130への画面の表示を制御する表示制御部である。図2(a)では、情報処理装置100と入力装置120と表示装置130とは、別体の装置として示しているが、一体構成の装置としてもよい。また、待ち時間推定システムは、複数の表示装置を表示装置130として含んでもよい。
CPU111は、メモリ110等に記憶されたプログラムに基づき処理を実行することによって、図3~図6で後述する情報処理装置100の各機能部、及び、図7、図8で後述するフローチャートの各処理工程などを実現する。
ネットワークカメラ102は、メモリ140、CPU141、撮像部142、信号処理部143、駆動制御部144、通信制御部145を含む。
メモリ140は、各種プログラム、各種設定データ、待ち行列が撮影された画像データ等を記憶する記憶装置である。メモリ140は、例えば、ハードディスク、光ディスク、メモリカード、ソリッドステートドライブ等により構成される。CPU141は、ネットワークカメラ102の処理を制御する中央演算装置である。
撮像部142は、撮像素子と撮像素子上に被写体の光学系とを有し、光学系の光軸と撮像素子との交点を撮像中心として撮像素子上に撮像を行う。撮像素子としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charged Coupled Device)等が用いられる。
信号処理部143は、撮像部142によって撮像された画像信号に対して信号処理を行う。信号処理部143は、例えば、撮像部142によって撮像された画像信号の符号化を行う。信号処理部143は、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて、撮像部142によって撮像された画像信号の符号化を行う。また、信号処理部143は、H.264/MPEG-4 AVC(以下H.264)の符号化方式を用いて、撮像部142によって撮像された画像信号の符号化を行うこととしてもよい。また、信号処理部143は、HEVC(High Efficiency Video Coding)の符号化方式を用いて、撮像部142によって撮像された画像信号の符号化を行うこととしてもよい。また、信号処理部143は、状況に応じて複数の符号化方式の中から符号化方式を選択して符号化を行うこととしてもよい。
駆動制御部144は、撮像部142の撮像方向、画角を変更させる制御を行う。ここでは、撮像部142の撮像方向をパン方向及びチルト方向に変更させることができ、また、撮像部142の撮像画角を変更することができることとする。ただし、ネットワークカメラ102は、パン方向、チルト方向に撮像方向を変更する機能を有さなくてもよいし、画角を変更する機能を有さなくてもよい。
通信制御部145は、ネットワーク101を介した情報処理装置100等の外部の装置との通信に利用される通信制御部である。通信制御部145は、信号処理部143で処理が行われた撮像画像の情報を情報処理装置100に送信する。更に、通信制御部145は、情報処理装置100から送信されたネットワークカメラ102に対する制御命令を受信する。
CPU141は、メモリ140等に記憶されたプログラムに基づき処理を実行することによって、ネットワークカメラ102の機能及びネットワークカメラ102における各種処理を実現する。
ネットワークカメラ103のハードウェア構成は、ネットワークカメラ102のハードウェア構成と同様である。ネットワークカメラ103のCPUは、ネットワークカメラ103のメモリ等に記憶されたプログラムに基づき処理を実行することによって、ネットワークカメラ103における各種処理を実現する。
図3は、情報処理装置100の機能構成を示す図である。情報処理装置100は、検知部105、人数算出部106、待ち時間算出部107を含む。
検知部105は、ネットワークカメラ102から送信された待ち行列の出口の画像を解析し待ち行列に並ぶオブジェクト(人体)を認識する。これにより、検知部105は、待ち行列から出ていくオブジェクトを検知する。そして、検知部105は、検知した待ち行列から出たオブジェクトを出た時刻と対応付けて履歴情報(検知履歴)としてメモリ110等に記憶する。履歴情報とは、待ち行列からいつ、幾つのオブジェクトが出ていったかを示す情報である。例えば、所定の時間間隔ごとに待ち行列から出たオブジェクトの個数と待ち行列から出た時間帯とを対応付けて履歴情報としてもよい。
人数算出部106は、1以上のネットワークカメラ103から送信された待ち行列の画像からオブジェクトを認識し、待ち行列全体に含まれる(並んでいる)オブジェクトの個数を算出する。
待ち時間算出部107は、検知部105により記憶された履歴情報と、人数算出部106により取得された待ち行列全体に含まれるオブジェクトの個数と、に基づき、当該待ち行列における待ち時間を計算する。図3においては、検知部105、人数算出部106、待ち時間算出部107を、同一の情報処理装置100に実装するように示しているが、複数の情報処理装置に分散して実装してもよい。その場合、その複数の情報処理装置が、連携して情報処理装置100と同様の処理を行うこととなる。
図4は、検知部105の詳細構成を示す図である。検知部105は、通信部301、カメラ管理部302、コマンド管理部303、画像管理部304、解析部305、履歴記憶部306、問合せ部307を含む。
通信部301は、通信制御部112を介して、ネットワークカメラ102、103等の他の装置との通信を行う。カメラ管理部302は、ネットワークカメラ102、103から雲台機構や撮像機構の状態等のカメラの状態の情報を取得し、取得した情報をメモリ110等に記憶し管理する。コマンド管理部303は、雲台機構や撮像機構の状態を変更するコマンドや、ネットワークカメラ102、103に画像を要求するコマンドの生成や送信を管理する。
画像管理部304は、ネットワークカメラ102から送信された静止画や動画等の画像を取得し、メモリ110に記憶し管理する。解析部305は、ネットワークカメラ102から取得した画像に対して人体の検知及び追尾を行い、待ち行列から出ていくオブジェクトを検知する。メモリ110は、予め、ネットワークカメラ102から取得された画像における待ち行列が占める画像領域の情報を記憶している。解析部305は、例えば、メモリ110から待ち行列が占める画像領域の情報を取得し、ネットワークカメラ102から取得した画像において当該情報が示す画像領域から出ていくオブジェクトを、待ち行列から出ていくオブジェクトとして検知する。
履歴記憶部306は、解析部305により待ち行列から出ていくオブジェクトが検知された場合に、上述の履歴情報をメモリ110に記憶する。ここでは、待ち行列から出たオブジェクトの個数と待ち行列から出た時間帯との対応情報をメモリ110に記憶する。履歴記憶部306は、待ち行列から出ていくオブジェクトが解析部305により検知される度に、検知された時刻の情報を履歴情報としてメモリ110に記憶してもよい。問合せ部307は、履歴情報の問合せの受信に基づいて、履歴記憶部306により記憶された履歴情報から問合せに応じた情報を抽出し、問合せ元に送信する。
図5は、人数算出部106の詳細構成を示す図である。人数算出部106は、解析部401、記憶部402、通信部403、カメラ管理部404、コマンド管理部405、画像管理部406を含む。なお、通信部403、カメラ管理部404、コマンド管理部405、画像管理部406は、それぞれ、通信部301、カメラ管理部302、コマンド管理部303、画像管理部304と同様である。
解析部401は、ネットワークカメラ103から送信された画像からオブジェクト(人体)を検知し、待ち行列全体に含まれるオブジェクトの個数を取得する。解析部401は、複数のネットワークカメラ103からの画像から待ち行列全体に含まれるオブジェクトの個数を取得してもよい。また、解析部401は、単一のネットワークカメラ103により撮影された待ち行列の全体が含まれる画像から待ち行列全体に含まれるオブジェクトの個数を取得してもよい。また、ネットワークカメラ102から送信された画像を含めた解析を行ってもよい。
また、解析部401は、ネットワークカメラ103により撮影された画像内の待ち行列の領域に含まれるオブジェクトの個数に、その画像内の待ち行列の領域に対する待ち行列全体の領域の割合を乗じる。この処理により、待ち行列に含まれるオブジェクトの個数を取得してもよい。
記憶部402は、解析部401により算出された待ち行列に含まれるオブジェクトの個数の情報を、メモリ110等に記憶する。
図6は、待ち時間算出部107の詳細構成を示す図である。待ち時間算出部107は、算出部501、記憶部502、通信部503を含む。
通信部503は、通信部301と同様である。算出部501は、履歴記憶部306に格納された履歴情報と記憶部402に格納されたオブジェクトの個数の情報に基づいて、待ち時間を算出する。記憶部502は、算出部501により算出された待ち時間の情報を、メモリ110等に記憶する。
算出部501は、問合せ部307に対して、例えば、設定された期間についての履歴情報を問い合わせる。問合せ部307は、履歴記憶部306により記憶された履歴情報から、問合せに対応する期間における履歴情報を取得し、取得した履歴情報を、算出部501に送信する。算出部501は、問合せ部307から受信した履歴情報と、解析部401により取得された待ち行列に含まれるオブジェクトの個数と、に基づいて、待ち行列の待ち時間を計算する。
<装置の動作>
図7は、情報処理装置100の動作を示すフローチャートである。具体的には、待ち行列における待ち時間の推定処理の流れを示している。
S601では、待ち時間算出部107の算出部501は、オブジェクトの個数に関連する情報を人数算出部106から取得する。例えば、算出部501は、待ち行列に含まれるオブジェクトの個数を人数算出部106に要求する。人数算出部106は、記憶部402に記憶された待ち行列に含まれるオブジェクトの個数を示す情報を、算出部501に送信する。算出部501は、受信した情報が示すオブジェクトの個数を、待ち行列に含まれるオブジェクトの個数として取得する。
S602では、待ち時間算出部107の算出部501は、現在時刻直前の設定された単位時間(例えば、1分間、3分間等)の期間についての履歴情報を、検知部105の問合せ部307に要求する。問合せ部307は、問合せに対応する期間の履歴情報をメモリ110等から取得し、算出部501に送信する。算出部501は、問合せ部307から送信された履歴情報に基づいて、現在時刻直前の設定された単位時間当たりに行列から出たオブジェクトの個数に関連する情報を取得する。
S603では、待ち時間算出部107の算出部501は、待ち時間を計算する。具体的には、S601で取得した「待ち行列に含まれるオブジェクトの個数」を、S602で取得した「単位時間当たりに行列から出たオブジェクトの個数」で除算し、単位時間を乗ずることで待ち時間を算出する。そして、算出部501は、待ち行列の待ち時間を、計算した待ち時間であると推定する。
<待ち行列に含まれるオブジェクトの個数の算出>
ところで、上述のように待ち時間の推定においては、画像認識に基づく「待ち行列に含まれるオブジェクトの個数」の算出が含まれている。画像認識を利用する場合、条件によっては適切な推定を行うことが出来ない。例えば、カメラの設置位置や待ち人の身長および並び位置になどにより、映像解析で検出するに足りるだけの領域・範囲・特徴を撮影できない場合がある。この傾向は、待ち行列が混雑している場合により強くなる。ここで、混雑とは、単位領域当たりのオブジェクトの個数を示している。
そこで、第1実施形態では、画像認識により得られたオブジェクトの個数(人数)から待ち行列が混雑しているかを判断する。そして、混雑していると判断した場合、画像認識により得られたオブジェクトの個数を補正する。特に、複数のネットワークカメラ103により得られた複数の画像それぞれについて当該補正を行う。
図8は、例示的な待ち行列の状況を説明する図である。ネットワークカメラ102は、待ち行列の出口付近を撮影している。また、待ち行列の存在し得る領域を3つの部分領域(撮影範囲104a~104c)に分割し、それぞれの部分領域を3台のネットワークカメラ103a~103cそれぞれが撮影するよう構成している。すなわち、3台のネットワークカメラ103a~103cにより待ち行列全体の撮影をカバーできるように構成されている。
人数算出部106の記憶部402には、待ち行列における撮影範囲の配置及び対応するネットワークカメラの情報が記憶されている。図8の例においては、行列の前方から撮影範囲104a、104b、104cが設定されており、それぞれの範囲を撮影しているのはネットワークカメラ103a、103b、103cである。記憶部402は、この撮影範囲と対応するネットワークカメラの対応情報を記憶している。
図9は、第1実施形態における人数算出処理の詳細フローチャートである。具体的には、待ち時間算出部107からの問い合わせの受信をトリガに人数算出部106が実行する人数算出処理の詳細を示している。
S900では、人数算出部106は、記憶部402で記憶している混雑状態フラグを”無効”、およびオブジェクトの累積数を”0”で初期化する。そして、人数算出部106は、待ち行列を撮影しているネットワークカメラ毎にループ処理(S901~S907)を実行する。
S901では、人数算出部106のカメラ管理部404は、記憶部402に記憶されたネットワークカメラおよび撮影範囲の対応情報より、処理を行う順序を決定する。具体的には、人数算出部106は、待ち行列のより後方を撮影しているネットワークカメラから順にS901~S907の処理を実行する。すなわち、ここでは、順序は、ネットワークカメラ103c→103b→103aの順になる。
S902では、人数算出部106のコマンド管理部405は、注目しているネットワークカメラに対する映像取得コマンドを生成する。そして、画像管理部406は、取得した映像を管理し、解析部401は、取得した映像の撮影範囲に含まれる人体(オブジェクト)を検知する検出処理を実行する。例えば、1回目のループでは、ネットワークカメラ103cにより撮影された映像を取得し、当該映像に含まれる範囲104cに存在する人体を検知する。
S903では、人数算出部106は、記憶部402に記憶された混雑状態フラグの値を判定する。混雑状態フラグが”無効”の場合はS904に進み、”有効”である場合はS906に進む。1回目のループでは、混雑状態フラグが”無効”であるためS904に進む。
S904では、人数算出部106は、S902で検出されたオブジェクトの個数(すなわち人数)が所定の閾値以上であるか否かを判定する。所定の閾値は、事前に設定して記憶部402で記憶している値である。例えば、予めネットワークカメラの撮影アングルにおいて、解析部401において誤差が生じる人数閾値を確認しておき、所定の閾値として設定する。所定の閾値は、ネットワークカメラ毎に異なる値であり得る。検出したオブジェクトが閾値以上である場合はS905に進み、閾値未満である場合はS907に進む。
S905では、人数算出部106は、記憶部402に記憶された混雑状態フラグを”有効”に設定する。
S906では、人数算出部106の解析部401は、S902で検出された人数に所定の補正係数を乗じて得られる補正人数(補正個数)を算出し記憶部402に記憶する。所定の補正係数は、事前に設定して記憶部402で記憶している値である。例えば、予めネットワークカメラの撮影アングルにおいて、解析部401において検出されたオブジェクトの個数と実際のオブジェクトの個数とを確認しておき、これらの比率を所定の補正係数として設定する。補正係数は、検出された人数に応じて変動する値であっても良いし、解析をした映像の配信元であるネットワークカメラ毎に異なる値であっても良い。
S907では、S905で補正をしたオブジェクト数またはS902で検出した人数をオブジェクトの累積数に加算する。
上述のループ処理(S901~S907)を全てのネットワークカメラについて実行した後(すなわち、ネットワークカメラ103aに対する処理が完了した後)、フローを終了する。これにより、オブジェクトの累積数には、混雑状況に応じた補正がなされた待ち行列のオブジェクトの個数が格納されることになる。特に、混雑状態フラグを利用して混雑していると判断された位置よりも行列の出口(行列の先頭位置)側においては混雑が続いているものと自動的に判断し、以降に処理する画像における混雑判定を省略することにより、効率的に補正することが可能となる。
以上説明したとおり第1実施形態によれば、待ち行列の混雑度合いに応じて当該待ち行列におけるオブジェクトの個数を補正して算出する。このようにして補正されたオブジェクトの個数を利用することにより、待ち行列における待ち時間をより高精度に推定することが可能となる。特に、待ち行列を撮影するネットワークカメラからの画像を利用することにより、待ち行列に変化(人数、長さなど)が生じた場合においても待ち時間を適応的に推定することである。
なお、上述の説明においては、各ネットワークカメラによる撮像画像に含まれるオブジェクトの個数の検出を情報処理装置100が行うよう説明を行ったが、各ネットワークカメラが行うよう構成してもよい。例えば、ネットワークカメラ103において撮影画像からオブジェクトの個数を算出し情報処理装置100に通知するよう構成してもよい。この場合、情報処理装置100は、各ネットワークカメラから通知されたオブジェクトの個数に基づいてそれぞれの個数の補正を行い、待ち行列全体に含まれるオブジェクトの個数を算出する。
また、上述の説明においては、待ち行列から出るオブジェクトを、ネットワークカメラ102により撮影された画像に基づいて検出するよう構成した。しかしながら、待ち行列から出るオブジェクトを検出可能のものであればよく、公知の他の装置(各種センサなど)を用いることが出来る。
(第2実施形態)
第2実施形態では、待ち行列に含まれるオブジェクトの個数を求める他の形態について説明する。具体的には、待ち行列から出たオブジェクトの数と時間帯との対応情報である履歴情報、及び、撮影画像の解析によって算出される単位時間あたりのオブジェクトの移動距離から、待ち行列が混雑しているか否かを判断する点が第1実施形態と異なる。システム構成(図1)、各装置の構成(図2~図6)、概略の動作(図7)については第1実施形態と同様であるため説明は省略する。
<待ち行列に含まれるオブジェクトの個数の算出>
図10は、第2実施形態における人数算出処理の詳細フローチャートである。
S1000では、人数算出部106は、記憶部402で記憶しているオブジェクトの累積数を”0”で初期化する。そして、人数算出部106は、待ち行列を撮影しているネットワークカメラ毎にループ処理(S1001~S1007)を実行する。
S1001では、人数算出部106のカメラ管理部404は、待ち行列を撮影しているネットワークカメラを順次選択して後段の処理(S1002~S1007)を実行する。
S1002では、人数算出部106は、S1001で選択されたネットワークカメラにより得られた画像に対してオブジェクトを検知する。具体的には、コマンド管理部405に映像取得コマンドを生成させ、画像管理部406に取得した映像を管理させ、解析部401に撮影範囲に含まれるオブジェクトを検知させる。
S1003では、人数算出部106は、S1001で選択されたネットワークカメラの過去の映像を画像管理部406より取得する。そして、S1002で取得した映像とあわせて解析部401で解析し、各映像フレームにおけるオブジェクトを認識し、前後の数フレーム間でのオブジェクトの移動を追跡する。そして、オブジェクトの移動軌跡及び当該オブジェクトのサイズに基づいて、移動距離と時間帯を算出する。
時間帯は、オブジェクトの認識の結果が良好な部分を切り出すよう構成してもよい。時間帯を切り出した場合には、切り出した期間における移動距離を算出する。移動距離は、オブジェクトの形状と解析部401で想定する理想の待ち行列にならぶオブジェクトの個数に基づいて算出する。オブジェクトの移動距離の算出においては、検出した複数オブジェクトの移動距離の平均であっても良いし、映像内で最も理想的に解析ができた1つのオブジェクト(例えば特定の人物)の移動距離を代表としても良い。
S1004では、人数算出部106は、S1003において算出した時間帯に対応する履歴情報を、問合せ部307に要求し取得することで、当該時間帯に待ち行列から出たオブジェクトの個数を取得する。
S1005では、人数算出部106は、S1003において算出したオブジェクトの移動距離及びS1004で取得した行列から出たオブジェクト数に基づいて、待ち行列が混雑しているか否かを判断する。また、後述する所定係数を算出する。
行列から出たオブジェクトの個数に比較してオブジェクトの移動距離が小さい場合には、オブジェクトが重なって撮影されてしまい検出できない頻度が高くなると想定する。そのため、オブジェクトの個数を補正するための所定の係数を、個数を増やす方向の係数として算出する。差が大きいほど、より重なりが大きくなり未検出の割合が高くなると想定し、オブジェクト数をより増やす方向の係数とする。係数の計算方法は、ネットワークカメラ毎に異なっていてもよい。
S1006では、人数算出部106は、S1002で検知したオブジェクトの個数に対して、S1005で算出した係数を乗じて補正されたオブジェクトの個数を算出する。S1007では、人数算出部106は、S1006で補正されたオブジェクトの個数をオブジェクトの累積数に加算する。
上述のループ処理(S1001~S1007)を全てのネットワークカメラについて実行した後、フローを終了する。これにより、オブジェクトの累積数には、混雑状況に応じた補正がなされた待ち行列のオブジェクトの個数が格納されることになる。
以上説明したとおり第2実施形態によれば、待ち行列の混雑度合いに応じて当該待ち行列におけるオブジェクトの個数を補正して算出する。このようにして補正されたオブジェクトの個数を利用することにより、待ち行列における待ち時間をより高精度に推定することが可能となる。
(変形例)
上述したように、第1実施形態のS906および第2実施形態のS1005における所定の係数は、待ち行列がより混雑しているほどオブジェクトの個数をより増やす方向の係数として算出される。具体的な算出方法として、以下の計算方法を利用することも出来る。
解析部401は、解析対象のネットワークカメラの過去から最新までの映像を画像管理部406から取得し、複数のフレーム画像間の動きベクトルを検出する。そして、画面内で動きベクトルを検出した領域と検出したオブジェクトが占める領域とを比較する。オブジェクトが占める領域が小さい場合には混雑していると判断し、オブジェクトの個数を増やす方向の係数とする。このとき、係数は、動きベクトルを検出した領域とオブジェクトが占める領域との比をベースとして算出することが出来る。あるいは、係数は、動きベクトルを検出した領域において、オブジェクトが占める領域が重なる領域と重ならない領域との割合をベースとして算出することが出来る。
又は、解析部401は、解析対象のネットワークカメラの過去の映像の中からオブジェクトを含まない背景画像を画像管理部406から取得し、最新の映像の差分がある差異領域と、検出したオブジェクトが占める領域とを比較する。そして、オブジェクトが占める領域が小さい場合には混雑していると判断し、オブジェクトの個数を増やす方向の係数とする。このとき、係数は、背景画像との差異領域とオブジェクトが占める領域との比をベースとして算出することが出来る。あるいは、係数は、背景画像との差異領域と、オブジェクトが占める領域が重なる領域と重ならない領域との割合と、をベースにして算出することが出来る。
あるいは、解析部401は、最新の画像を映像管理部406から取得し、当該画像の画像周波数の高周波成分値を求める。また、検出したオブジェクトが占める領域と求める。そして、高周波成分値とオブジェクトが占める領域との比をベースとして係数を算出することが出来る。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 情報処理装置; 101 ネットワーク; 102,103 ネットワークカメラ; 105 検知部; 106 人数算出部; 107 待ち時間算出部

Claims (9)

  1. 複数のオブジェクトにより構成される待ち行列における待ち時間を推定する情報処理装置であって、
    前記待ち行列を撮影した画像において検出されたオブジェクトの個数を取得する第1の取得手段と、
    単位時間あたりに前記待ち行列から出たオブジェクトの個数を取得する第2の取得手段と、
    前記第1の取得手段により取得された個数が所定の閾値以上である場合に、前記第1の取得手段により取得された個数に補正係数を乗じることにより、前記第1の取得手段により取得された個数を、当該個数よりも多くなるように補正する補正手段と、
    前記第1の取得手段により取得された個数が前記所定の閾値以上である場合には、前記補正手段により補正された個数と、前記第2の取得手段により取得された個数とに基づいて前記待ち行列における待ち時間を推定する推定手段と、
    を有する
    ことを特徴とする情報処理装置。
  2. 前記推定手段は、前記第1の取得手段により取得された個数が前記所定の閾値以上ではない場合には、前記第1の取得手段により取得された個数と、前記第2の取得手段により取得された個数とに基づいて、前記待ち時間を推定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記待ち行列が存在し得る領域を構成する複数の部分領域それぞれを撮影するよう構成された複数のカメラにより得られた複数の画像を取得する画像取得手段を更に有し、
    前記第1の取得手段は、前記複数の画像のうち前記待ち行列のより後方に位置する部分領域の画像から順にオブジェクトの検出処理を行い、検出されたオブジェクトの個数が前記所定の閾値以上であるか否かを判定するよう構成されており、
    前記補正手段は、前記複数の画像に含まれるある画像について検出されたオブジェクトの個数が前記所定の閾値以上であると判定された場合に、当該画像において検出されたオブジェクトの個数、及び前記所定の閾値以上であると判定された場合以降に処理する画像において検出されるオブジェクトの個数に対して前記補正係数を乗じることにより、前記第1の取得手段により取得された各個数を、当該各個数よりも多くなるように補正し、
    前記推定手段は、前記第1の取得手段により取得された個数が前記所定の閾値以上であると判定された場合には、前記補正手段により補正された当該各個数を累積した累積数と、前記第2の取得手段により取得された個数とに基づいて、前記待ち時間を推定する
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記第2の取得手段は、前記待ち行列の先頭位置に設置された検知装置により得られたオブジェクトの検知履歴に基づいて、前記単位時間あたりに前記待ち行列から出たオブジェクトの個数を取得する
    ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  5. 前記第1の取得手段は、前記補正係数を前記検出されたオブジェクトの個数に応じて変化させる
    ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  6. 前記待ち行列を異なる時刻で撮影した複数の画像間の動きベクトルを検出する動き検出手段を更に有し、
    前記補正係数は、動きベクトルを検出した画像領域とオブジェクトが占める画像領域との比をベースとして算出される
    ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  7. 前記待ち行列が存在し得る領域の背景画像を記憶する記憶手段を更に有し、
    前記補正係数は、前記待ち行列を撮影した画像と前記背景画像との間に差異がある画像領域と前記待ち行列を撮影した画像においてオブジェクトが占める画像領域との比をベースとして算出される
    ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  8. 複数のオブジェクトにより構成される待ち行列における待ち時間を推定する情報処理装置の制御方法であって、
    前記待ち行列を撮影した画像において検出されたオブジェクトの個数を取得する第1の取得工程と、
    単位時間あたりに前記待ち行列から出たオブジェクトの個数を取得する第2の取得工程と、
    前記第1の取得工程により取得された個数が所定の閾値以上である場合に、前記第1の取得工程により取得された個数に補正係数を乗じることにより、前記第1の取得工程により取得された個数を、当該個数よりも多くなるように補正する補正工程と、
    前記第1の取得工程により取得された個数が前記所定の閾値以上である場合には、前記補正工程により補正された個数と、前記第2の取得工程により取得された個数とに基づいて前記待ち行列における待ち時間を推定する推定工程と、
    を含
    ことを特徴とする制御方法。
  9. 求項1乃至の何れか1項に記載の情報処理装置として機能させるためのプログラム。
JP2018001993A 2018-01-10 2018-01-10 情報処理装置およびその制御方法 Active JP7113622B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018001993A JP7113622B2 (ja) 2018-01-10 2018-01-10 情報処理装置およびその制御方法
US16/235,050 US10817727B2 (en) 2018-01-10 2018-12-28 Information processing apparatus and method of controlling an information processing apparatus that estimate a waiting time in a waiting line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001993A JP7113622B2 (ja) 2018-01-10 2018-01-10 情報処理装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2019121278A JP2019121278A (ja) 2019-07-22
JP7113622B2 true JP7113622B2 (ja) 2022-08-05

Family

ID=67140790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001993A Active JP7113622B2 (ja) 2018-01-10 2018-01-10 情報処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US10817727B2 (ja)
JP (1) JP7113622B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023017645A (ja) * 2021-07-26 2023-02-07 トヨタ自動車株式会社 車両用表示制御装置及び車両用表示制御方法
CN114037146A (zh) * 2021-11-05 2022-02-11 北京市商汤科技开发有限公司 一种排队等待时长确定方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012025495A (ja) 2010-07-20 2012-02-09 Toshiba It & Control Systems Corp エスカレータ搭載負荷量計測方法及び装置
JP2013246490A (ja) 2012-05-23 2013-12-09 Nippon Telegr & Teleph Corp <Ntt> 推定装置、推定方法及びコンピュータプログラム
US20160191865A1 (en) 2014-12-30 2016-06-30 Nice-Systems Ltd. System and method for estimating an expected waiting time for a person entering a queue
JP2016181882A (ja) 2015-03-25 2016-10-13 三菱電機インフォメーションシステムズ株式会社 処理時間計算装置及び処理時間計算プログラム
JP2017134513A (ja) 2016-01-26 2017-08-03 パナソニックIpマネジメント株式会社 施設利用支援方法、施設利用支援装置および利用者端末装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3915721B2 (ja) 2003-03-20 2007-05-16 コニカミノルタホールディングス株式会社 監視装置
JP4402505B2 (ja) * 2004-04-27 2010-01-20 グローリー株式会社 待ち時間案内システムおよび方法
WO2007007470A1 (ja) * 2005-07-12 2007-01-18 Pioneer Corporation テーマパーク管理装置、テーマパーク管理方法、テーマパーク管理プログラムおよび記録媒体
JP2008217289A (ja) * 2007-03-02 2008-09-18 Mitsubishi Precision Co Ltd 人数計測システム
US8131010B2 (en) * 2007-07-30 2012-03-06 International Business Machines Corporation High density queue estimation and line management
EP2677460B1 (de) * 2012-06-20 2015-07-08 Xovis AG Verfahren zur Bestimmung der Länge einer Warteschlange
US20150142481A1 (en) * 2013-11-15 2015-05-21 Jeff McManus Apparatus and method for managing access to a resource

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012025495A (ja) 2010-07-20 2012-02-09 Toshiba It & Control Systems Corp エスカレータ搭載負荷量計測方法及び装置
JP2013246490A (ja) 2012-05-23 2013-12-09 Nippon Telegr & Teleph Corp <Ntt> 推定装置、推定方法及びコンピュータプログラム
US20160191865A1 (en) 2014-12-30 2016-06-30 Nice-Systems Ltd. System and method for estimating an expected waiting time for a person entering a queue
JP2016181882A (ja) 2015-03-25 2016-10-13 三菱電機インフォメーションシステムズ株式会社 処理時間計算装置及び処理時間計算プログラム
JP2017134513A (ja) 2016-01-26 2017-08-03 パナソニックIpマネジメント株式会社 施設利用支援方法、施設利用支援装置および利用者端末装置

Also Published As

Publication number Publication date
US10817727B2 (en) 2020-10-27
JP2019121278A (ja) 2019-07-22
US20190213422A1 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
US8818055B2 (en) Image processing apparatus, and method, and image capturing apparatus with determination of priority of a detected subject and updating the priority
JP6561830B2 (ja) 情報処理システム、情報処理方法及びプログラム
US9842409B2 (en) Image transmission device, image transmission method, image transmission program, image recognition and authentication system, and image reception device
US10115178B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
US20100149369A1 (en) Main face choosing device, method for controlling same, and image capturing apparatus
CN108229333A (zh) 用于识别运动视频中的事件的方法
CN107645632B (zh) 焦点调节设备、焦点调节方法、摄像设备和存储介质
US10484591B2 (en) Focus adjusting apparatus, focus adjusting method, and image capturing apparatus
US10762355B2 (en) Information processing apparatus, information processing method, and storage medium to estimate queue waiting time
JP2018036784A (ja) システム、情報処理装置、情報処理方法及びプログラム
JP7113622B2 (ja) 情報処理装置およびその制御方法
JP2018036782A (ja) 情報処理装置、情報処理方法及びプログラム
US11394870B2 (en) Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
JP7448043B2 (ja) 撮影制御システム
US12002279B2 (en) Image processing apparatus and method, and image capturing apparatus
WO2021171763A1 (ja) 画像処理装置、撮影装置、画像処理システム、画像処理方法、及び非一時的なコンピュータ可読媒体
JP6399869B2 (ja) 被写体追尾装置、撮像装置、被写体追尾方法及びプログラム
CN101651778B (zh) 摄像设备及其控制方法
JP7182893B2 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP2008160280A (ja) 撮像装置および自動撮像方法
JP6833558B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2021125847A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2019179952A (ja) 画像撮影装置、画像送信方法、および画像解析システム
JP2021082944A (ja) 撮影装置及びその制御方法並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220726

R151 Written notification of patent or utility model registration

Ref document number: 7113622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151