JP2022020223A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2022020223A
JP2022020223A JP2020123601A JP2020123601A JP2022020223A JP 2022020223 A JP2022020223 A JP 2022020223A JP 2020123601 A JP2020123601 A JP 2020123601A JP 2020123601 A JP2020123601 A JP 2020123601A JP 2022020223 A JP2022020223 A JP 2022020223A
Authority
JP
Japan
Prior art keywords
human body
detected
blind spot
area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020123601A
Other languages
English (en)
Other versions
JP2022020223A5 (ja
Inventor
友範 田中
Tomonori Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020123601A priority Critical patent/JP2022020223A/ja
Priority to US17/376,792 priority patent/US20220019822A1/en
Publication of JP2022020223A publication Critical patent/JP2022020223A/ja
Publication of JP2022020223A5 publication Critical patent/JP2022020223A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/29Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area inside the vehicle, e.g. for viewing passengers or cargo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8006Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying scenes of vehicle interior, e.g. for monitoring passengers or cargo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】計数対象の領域に死角領域が存在する場合であっても、計数対象の物体の数を適切に推定する。【解決手段】情報処理装置は、入力画像から計数対象の物体を検出する検出手段と、検出手段により検出された物体の挙動を記憶する記憶手段と、検出手段により検出されていた物体が非検出となった場合、記憶手段により記憶された物体の挙動に基づいて、非検出となった物体が非死角領域から死角領域へ移動したか否かを判定する判定手段と、検出手段による物体の検出結果と、判定手段による判定結果とに基づいて、入力画像内の計数対象の領域における物体の数を計数する計数手段と、を備える。【選択図】 図1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
従来、天井部分に設置した監視カメラにより撮像された画像をもとに人数カウントを行う技術が知られている。
特許文献1には、エレベータ乗場内の乗客数を検出するエレベータシステムであって、監視カメラの死角領域内の乗客数を、エレベータの制御情報に基づいて推定するエレベータシステムが開示されている。
特開2016-166066号公報
しかしながら、上記特許文献1に記載の技術では、時間の経過に応じて死角領域内の乗客数の推定精度が低下してしまう。
そこで、本発明は、計数対象の領域に死角領域が存在する場合であっても、計数対象の物体の数を適切に推定することを課題としている。
上記課題を解決するために、本発明に係る情報処理装置の一態様は、入力画像から計数対象の物体を検出する検出手段と、前記検出手段により検出された前記物体の挙動を記憶する記憶手段と、前記検出手段により検出されていた前記物体が非検出となった場合、前記記憶手段により記憶された前記物体の挙動に基づいて、前記非検出となった物体が非死角領域から死角領域へ移動したか否かを判定する判定手段と、前記検出手段による前記物体の検出結果と、前記判定手段による判定結果とに基づいて、前記入力画像内の計数対象の領域における前記物体の数を計数する計数手段と、を備える。
本発明によれば、計数対象の領域に死角領域が存在する場合であっても、計数対象の物体の数を適切に推定することができる。
本実施形態における撮像装置の構成例を示すブロック図。 撮像装置の設置例を示す図。 死角領域を示す図。 第一の実施形態の撮像装置が実行する処理のフローチャート。 人体検出情報の一例を示す図。 撮像画像の座標系を示す図。 人体挙動情報の一例を示す図。 人体検出情報の一例を示す図。 人体検出情報の一例を示す図。 図4のS4において実行される処理のフローチャート。 人体の非死角領域から死角領域への移動を説明する図。 第二の実施形態の撮像装置が実行する処理のフローチャート。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
本実施形態では、撮像装置により撮像された撮像画像(映像)を入力画像とし、入力画像内の計数対象の領域に存在する計数対象の物体の数をカウントするカメラシステムについて説明する。本実施形態におけるカメラシステムは、上記の計数対象の物体を人体とし、上記の計数対象の領域を鉄道車両等の車両内の座席領域として、座席領域における乗客の数をカウントする情報処理装置を備える。
図1は、本実施形態におけるカメラシステム1000の構成例を示すブロック図である。
カメラシステム1000は、撮像装置100を備える。撮像装置100は、レンズを介して画像データや動画データを撮像するネットワークカメラとすることができる。また、撮像装置100は、撮像光学系を有する撮像部200および駆動部300が交換可能なレンズ交換型撮像装置とすることできる。なお、撮像装置100は、撮像部200および駆動部300を一体に有するレンズ一体型撮像装置であってもよい。
撮像装置100は、クライアントからのリクエストに応じて、撮像した画像データ等を、ネットワーク400を介してクライアント装置500に送信することができる。また、撮像装置100は、予め接続されたクライアント装置500に対して能動的に画像データ等を送信してもよい。
ネットワーク400は、例えば、Ethernet(登録商標)の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク400は、撮像装置100と上記のクライアント装置との間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク400は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
クライアント装置500は、パーソナルコンピュータ(PC)やスマートフォン、タブレット型PCといった一般的な端末装置により構成することができる。また、クライアント装置500は、サーバ装置であってもよいし、リモートカメラを操作するための専用コントローラ機器等であってもよい。
図2は、撮像装置100の設置例を示す図である。
撮像装置100は、車両600の天井部分に設置され、例えば、座席A~Hの混雑具合を把握するために座席領域601に存在する乗客の人数をカウントする。車両600には、座席領域601と、非座席領域602とが設けられている。ここで、非座席領域602は、座席A~Dと座席E~Hとの間に設けられた通路とすることができる。乗客は、入出口603や入出口604から車両600を出入りし、非座席領域602の移動と、座席領域601に設けられた座席A~Hへの着席および離席とを行うことができる。撮像装置100は、車両600内の端、具体的には入出口603付近の天井部分に設置されているものとする。
座席A~Hには、それぞれ図3に示すように背もたれ610が設けられている。そのため、撮像装置100が車両600の天井の端に設置されている場合、撮像装置100と背もたれ610との位置関係によっては、座席領域601には、撮像装置100が撮像できない死角領域620が発生する。乗客が着席して死角領域620に入り込んだ場合、撮像装置100によって当該乗客を撮像することができず、撮像画像から当該乗客を検出することができなくなる。そのため、撮像画像内の座席領域601に対応する領域において検出された人体の数を座席に着席している乗客の数としてカウントすると、乗客が着席しているにもかかわらず空席であると誤判定される場合があり、正確な人数カウントができない。
本実施形態では、撮像装置100は、撮像画像から検出した人体の挙動を記憶する。そして、撮像装置100が撮像可能な非死角領域において検出されていた人体が非検出となった場合、非検出となる前の人体の挙動に基づいて、非検出となった人体が死角領域に移動したのかどうかを判定する。そして、撮像装置100は、その判定結果を考慮して、計数対象の領域の人数カウントを行う。このようにして、死角領域への人体の移動があった場合であっても、正確な人数カウントを行うようにする。
以下、図1に示す各部の構成について説明する。まず、撮像部200および駆動部300について説明する。
撮像部200は、撮像光学系であるズームレンズ201、フォーカスレンズ202、絞り203および撮像素子204を備える。
駆動部300は、レンズ駆動部301と、撮像素子駆動部302と、を備える。レンズ駆動部301は、後述するズーム/フォーカス制御部101aから指示されたフォーカス/ズームの設定位置に基づいて、ズームレンズ201およびフォーカスレンズ202の位置を、光軸に沿って移動させる。また、レンズ駆動部301は、絞り203を駆動する。
撮像素子駆動部302は、後述するズーム/フォーカス制御部101aから指示されたあおり角の設定位置に基づいて、撮像素子204を傾ける。具体的には、撮像素子204を傾ける回転軸は撮像画面の中心に位置し、撮像素子204は、当該回転軸を中心に傾く。撮像素子204は、ズームレンズ201、フォーカスレンズ202、絞り203を通過した光を光電変換して、アナログ画像信号を生成する。生成したアナログ画像信号は、相関二重サンプリング等のサンプリング処理による増幅処理が施された後、後述するA/D変換部106に出力される。
撮像装置100は、CPU101と、ROM102と、RAM103と、記憶装置104と、I/F105と、A/D変換部106と、カメラ信号処理部107と、画像解析部108と、圧縮伸長部109と、を備える。CPU101は、ズーム/フォーカス制御部101aを備える。さらに、画像解析部108は、人体検出部111と、人体挙動記憶部112と、死角領域移動判定部113と、座席領域検出部114と、人数カウント部115と、を備える。
CPU101は、撮像装置100における動作を統括的に制御する。ズーム/フォーカス制御部101aは、オートフォーカス(AF)やマニュアルフォーカス(MF)によるピント制御を行う。
ROM102は、EEPROMやフラッシュメモリ等の不揮発性メモリである。ROM102は、CPU101が処理を実行するために必要なプログラムやデータを記憶する。なお、当該プログラムは、記憶装置104や不図示の着脱可能な記憶媒体に記憶されていてもよい。RAM103は、SRAMやDRAM等の揮発性メモリであり、CPU101の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際して、内部バス110を介してROM102から必要なプログラム等をRAM103にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
記憶装置104は、HDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)、eMMC(組み込み用のマルチメディアカード)等の記憶装置である。
I/F105は、ネットワーク400と接続するためのネットワークインタフェースである。
A/D変換部106は、撮像部200から出力されたアナログ画像信号をデジタル画像信号に変換し、カメラ信号処理部107に出力する。
カメラ信号処理部107は、デジタル画像信号に対して、各種画像処理を行って撮像画像(映像)を生成する。各種画像処理は、例えばオフセット処理、ガンマ補正処理、ゲイン処理、RGB補間処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等を含む。
画像解析部108は、カメラ信号処理部107により生成された撮像画像を入力画像として、人体検出や動体検知等の画像解析を行う。
人体検出部111は、既存のアルゴリズムに従う画像解析処理に基づいて、撮像画像から特定の人体を検出する。人体の検出方法としては、少なくとも物体の外形情報を特徴量として抽出し、パターンマッチング処理を行う方法がある。外形情報は、物体の外形を示す軌跡情報であり、頭部から両肩にかけてのΩ型の軌跡情報とすることができる。もしくは、顔認識等の画像解析処理を用いて人体検出を行ってもよい。
また、人体検出部111は、人体の検出と同時に人体の識別も行い、検出した人体それぞれに対してIDを付与する。人体の識別については、例えば、検出した人体のカラーヒストグラムを抽出し、カラーヒストグラムで人体を識別する方法がある。なお、人体検出および人体識別の方法については、上記に限定されるものではなく、公知の方法を適宜採用することができる。
人体挙動記憶部112は、人体検出部111により検出された人体の挙動を記憶する。具体的には、人体挙動記憶部112は、人体検出部111により検出された人体の撮像画像における位置の履歴、例えば人体の外形の中心座標の履歴を、フレーム毎にRAM103に記憶する。
死角領域移動判定部113は、人体検出部111により検出された人体が非検出となった場合に、非検出となった人体が非死角領域から死角領域に移動したか否かを判定する。具体的には、死角領域移動判定部113は、非検出となる前に記憶された当該人体の挙動に基づいて、非検出となった後の人体の移動位置を推定し、当該移動位置が死角領域であるか否かを判定する。
座席領域検出部114は、撮像画像中の座席領域を検出する。座席領域検出部114は、ユーザが指定した座席領域を示す情報を取得することで座席領域を検出してもよいし、画像解析により撮像画像中の座席領域を検出してもよい。
人数カウント部115は、撮像画像における計数対象の領域に存在する人体の数をカウントする。本実施形態では、計数対象の領域は座席領域601であるものとする。なお、計数対象の領域は、車両600内の所定の領域であればよく、座席領域601と非座席領域602とを含む領域の一部または全部であってよい。
画像解析部108は、上記の処理の結果を、内部バス110を介してCPU101に通知する。なお、画像解析部108の一部または全部の機能は、CPU101がプログラムを実行することで実現することができる。ただし、画像解析部108の各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU101の制御に基づいて動作する。
圧縮伸長部109は、内部バス110を介してCPU101からの制御指示に従い、撮像画像に対して圧縮処理を施して圧縮データを生成する。圧縮データは、I/F105からネットワーク400を介してクライアント装置500に送信される。
クライアント装置500は、CPU501と、ROM502と、RAM503と、I/F504と、入出力I/F505と、入力装置506と、表示装置507と、を備える。
CPU501、ROM502、RAM503およびI/F504は、上述したカメラ10のCPU101、ROM102、RAM103およびI/F105と同様の機能を有する。
入出力I/F505は、入出力に係る各種インタフェースである。入出力I/F505は、入力装置506と接続し、入力装置506から指示情報を受け取り、内部バス508を介してCPU501に通知する。ここで、入力装置506は、リレーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、タッチパネル、キーボードやポインティングデバイス(例えばマウス)等を含む。また、入出力I/F505は、LCDディスプレイ等のモニタを備える表示装置507と接続し、撮像装置100から送信されRAM503に一時的に記録された撮像画像や操作メニュー等の情報を表示する。
なお、本実施形態では、撮像装置100が画像解析部108を備える情報処理装置として動作する場合について説明する。しかしながら、撮像装置100と通信可能に接続されたクライアント装置500や一般のPC、クラウドサーバ等が上記の情報処理装置として動作してもよい。この場合、情報処理装置は、撮像装置100により撮像された撮像画像を入力画像としてネットワーク400を介して取得し、画像解析部108と同等の処理を行う。
次に、本実施形態における撮像装置100の動作について具体的に説明する。
図4は、本実施形態における撮像装置100が実行する人数カウント処理の手順を示すフローチャートである。
この図4の処理は、例えばユーザの指示に基づいて開始され、一定間隔で繰り返される。ただし、図4の処理の開始タイミングは、上記のタイミングに限らない。図4の処理は、例えば撮像装置100の起動後、撮像動作を開始したタイミング等で自動的に開始されてもよい。撮像装置100は、図1のCPU101が必要なプログラムを読み出して実行することにより、図4に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
本実施形態では、既に撮像装置100の起動は完了し、画像解析部108は、撮像画像を画像解析できる状態になっているものとする。また、座席領域検出部114は、図2に示す座席領域601を検出しているものとし、撮像画像内における座席領域601に対応する領域の情報は、RAM103に取り込まれているものとする。
S1において、撮像装置100は、撮像画像から人体を検出する。そして、撮像装置100は、検出した人体にIDを付与し、検出した人体の位置座標とIDとを紐付けて、人体検出情報としてRAM103に記憶する。例えば、S1において4つの人体が検出された場合には、図5に示すように、検出された人体のID(001~004)と検出された人体の位置座標とがRAM103に記憶される。
ここで、人体の位置座標は、検出された人体の外形の中心座標とすることができる。図6に示すように、撮像画像の画像サイズが1920×1080画素である場合、人体の位置座標は、(0,0)~(1920,1080)で表される。なお、図5は、ID=001~004の4つの人体がいずれも図2の非座席領域602に存在する場合の人体検出情報を示す。
S2では、撮像装置100は、S1において検出されたN個の人体の挙動をそれぞれRAM103に記憶する。具体的には、撮像装置100は、撮像画像における各人体の位置座標を、フレーム毎にRAM103に記憶する。例えば、撮像装置100は、図7に示すように、検出された人体の最大10フレーム分の位置座標を人体挙動情報として記憶するものとし、位置座標が更新された場合には最も古いフレームの位置座標を破棄して更新する。
S3では、撮像装置100は、S1において検出されたN個の人体の中で、非検出となった人体Kが存在するか否かを判定する。例えば、図5に示すID=001の人体とID=002の人体とが、座席に着席するために通路から座席領域に移動して座席の背もたれの死角領域に入ると、ID=001の人体とID=002の人体とが非検出となる。この場合、非検出となった人体Kが存在すると判定する。このように、非検出となった人体Kが存在すると判定された場合には、S4に移行する。一方、非検出となった人体Kは存在しないと判定された場合にはS7に移行する。
S4では、撮像装置100は、人体Kの非検出後の移動位置が座席領域であるか否かを判定する。つまり、撮像装置100は、人体Kの非検出後の移動位置が、死角領域が存在する領域であるか否かを判定する。このS4における処理については、後で詳述する。S4において、人体Kの非検出後の移動位置が座席領域でないと判定された場合にはS5に移行し、人体Kの非検出後の移動位置が座席領域であると判定された場合にはS6に移行する。
S5では、撮像装置100は、非検出後の移動位置が座席領域でないと判定された人体Kの情報を人体検出情報から消去し、S7に移行する。例えば、図5に示すID=001の人体とID=002の人体とが座席領域への移動以外で非検出となったと判定された場合には、図8に示すように、ID=001の人体の情報とID=002の人体の情報とが消去され、人体検出情報が更新される。
S6では、撮像装置100は、非検出と判定された人体Kの位置座標を座席領域の座標に更新する。例えば、図5に示すID=001の人体が座席Fへ移動して非検出となり、ID=002の人体が座席Cへ移動して非検出となったと推定されたものとする。この場合、図9に示すように、ID=001の人体とID=002の人体との位置座標は、それぞれ座席Fに対応する領域の中心座標と座席Cに対応する領域の中心座標とに更新される。
S7では、撮像装置100は、座席領域の人数カウントを行う。具体的には、撮像装置100は、人体検出情報に基づいて、位置座標が座席領域の座標である人体の数をカウントする。例えば、図9に示す人体検出情報の場合、ID=001、ID=002の人体の位置座標は座席領域の座標であり、ID=003、ID=004の人体の位置座標は非座席領域(通路)の座標である。そのため、この場合、座席領域の人数は2人とカウントされる。
以下、図4のS4の処理の流れについて、図10を参照しながら具体的に説明する。
図4のS3において非検出となった人体Kが存在すると判定された場合、図10のS4aにおいて、撮像装置100は、非検出後の人体Kの位置座標を推定する。撮像装置100は、図7に示すような非検出となる前の人体Kの連続した10フレーム分の位置座標を記録した人体挙動情報に基づいて、非検出となったフレームでの人体Kの位置座標を推定する。
推定方法としては、例えば、10フレーム分の位置座標から単回帰分析により回帰式Y=aX+b(Xは経過時間、Yは人体Kの位置座標)の傾きaと切片bとを求め、非検出後のフレームの経過時間をXとして、位置座標Yを求める方法がある。単回帰分析による位置座標の推定方法については公知であるため、詳細な説明は省略する。例えば、図7に示す挙動を示す人体が、フレームID=511において非検出となった場合、フレームID=511での当該人体の位置座標は(850,700)と推定される。
S4bでは、撮像装置100は、非検出となった人体Kの移動方向を示す移動ベクトルを推定する。撮像装置100は、図7に示すような非検出となる前の人体Kの連続した10フレーム分の位置座標を記録した人体挙動情報に基づいて、移動ベクトルを算出する。例えば、図7に示すように、フレームID=501の位置座標を始点、フレームID=510の位置座標を終点とすると、図7に示す挙動を示す人体の移動ベクトルは(-90, 0)となる。移動ベクトルの算出方法については公知であるため、詳細な説明は省略する。
S4cでは、撮像装置100は、S4aにおいて推定された位置座標が座席領域内の座標であるか否かを判定する。そして、撮像装置100は、推定された位置座標が座席領域内の座標であると判定した場合にはS4dに移行し、座席領域ではないと判定した場合には図10の処理を終了して図4のS5に移行する。
S4dでは、撮像装置100は、S4bにおいて算出された移動ベクトルに基づいて、人体Kが鉛直下方向に移動したか否かを判定する。具体的には、撮像装置100が図6に示すような撮像画像を撮像している場合、撮像装置100は、S4bにおいて算出された移動ベクトルのY成分が負であれば、人体Kが鉛直下方向に移動したと判定する。そして、撮像装置100は、人体Kが鉛直下方向に移動したと判定した場合には、図11に示す乗客P1のように座席領域で検出されていた状態から、鉛直下方向に移動して背もたれ610による死角領域620に移動して非検出となったと判定する。したがって、撮像装置100は、図10のS4dにおいて人体Kが鉛直下方向に移動したと判定した場合には、図10の処理を終了して図4のS6に移行し、鉛直下方向に移動していないと判定した場合にはS4eに移行する。
なお、S4dにおいて、撮像装置100は、人体Kが座席領域上で鉛直下方向に移動したか否かを判定するようにしてもよい。これにより、より精度良く座席の死角領域への移動を判定することができる。
S4eでは、撮像装置100は、S4bにおいて算出された移動ベクトルに基づいて、人体Kが座席領域の方向へ水平移動したか否かを判定する。具体的には、撮像装置100は、S4cにおいて人体Kが図6に示す座席A~Dのいずれかに移動したと判定されており、S4bにおいて算出された移動ベクトルのX成分が正であれば、人体Kが座席領域の方向に水平移動したと判定する。同様に、撮像装置100は、S4cにおいて人体Kが図6に示す座席E~Hのいずれかに移動したと判定されており、S4bにおいて算出された移動ベクトルのX成分が負であれば、人体Kが座席領域の方向に水平移動したと判定する。そして、撮像装置100は、人体Kが座席方向へ水平移動したと判定した場合には、図10の処理を終了して図4のS6に移行し、座席方向へ水平移動していないと判定した場合には図10の処理を終了して図4のS5に移行する。
以上説明したように、本実施形態における撮像装置100は、車両の天井部分に設置される。撮像装置100は、車両内を撮像し、その撮像画像を入力画像として当該入力画像から計数対象の物体を検出する。また、撮像装置100は、検出された物体の撮像画像における位置の履歴を当該物体の挙動として記憶する。ここで、計数対象の物体は人体とすることができる。撮像装置100は、検出されていた人体が非検出となった場合、記録されている人体の挙動に基づいて、非検出となった人体が非死角領域から死角領域へ移動したか否かを判定する。ここで、死角領域は、撮像装置100の撮像方向と座席の背もたれとの位置関係によって発生する座席の死角領域とすることができる。そして、撮像装置100は、人体の検出結果と、非死角領域から死角領域への移動の判定結果とに基づいて、撮像画像内の計数対象の領域における人体の数を計数する。ここで、計数対象の領域は、車両内の座席領域とすることができる。
具体的には、撮像装置100は、撮像画像から人体が検出された場合、検出された人体の位置座標と検出された人体を識別するためのIDとを紐づけた情報を人体検出情報として記録する。そして、撮像装置100は、非検出となった人体が非死角領域から死角領域へ移動したと判定した場合には、人体検出情報として記録されている当該人体の位置座標を、移動先の死角領域の位置座標に更新する。撮像装置100は、人体検出情報に記録された位置座標が座席領域内の位置座標である人体の数をカウントすることで、座席領域に存在する人体の数を容易に把握することができる。
このように、撮像装置100は、撮像画像の座席領域に対応する領域において検出された人体の数と、非死角領域から座席領域に存在する死角領域へ移動したと判定された人体の数とを加算した結果を、座席領域に存在する人体の数として把握することができる。
したがって、座席の死角領域に乗客が移動したとしても、座席領域の人体の人数カウントを正確に行うことが可能となる。つまり、座席の死角領域に乗客が移動すると、人体検出は非検出となるが、座席の死角領域に乗客が存在すると正しく判定することができ、人数カウントをデクリメントせずに維持することができる。
また、撮像装置100は、人体の挙動として撮像画像における位置の履歴を記憶するので、人体が非検出となった場合には、非検出となる前に記憶された人体挙動情報に基づいて、当該人体の移動位置を推定することができる。そのため、撮像装置100は、非検出となった人体の移動位置が座席領域であると推定された場合には、当該人体が非死角領域から座席の死角領域に移動したことを適切に判定することができる。
同様に、撮像装置100は、人体が非検出となった場合には、非検出となる前に記憶された人体挙動情報に基づいて、当該人体の移動方向を推定することができる。そのため、撮像装置100は、非検出となった人体の移動方向が座席領域へ向かう方向であると推定された場合には、当該人体が非死角領域から座席の死角領域に移動したことを適切に判定することができる。
このように、本実施形態では、撮像画像から検出された人体の挙動と検出・非検出の判定との組み合わせで、座席の死角領域への人体の移動を判定することができる。したがって、非死角領域から死角領域への人体の移動があった場合でも、人数カウントがデクリメントされない。
また、その後、死角領域から非死角領域へ人体が移動して当該人体が検出状態となった場合にも、人数カウントが誤ってインクリメントされることはない。例えば、図9に示すID=001の人体は、座席の死角領域に存在する人体である。このID=001の人体が座席から起立し、非死角領域へ移動すると、当該人体は撮像装置100によって撮像され、人体検出状態となる。この場合、検出された人体は、ID=001の人体であると識別され、ID=001の人体の位置座標が実際に検出された位置座標に更新される。そのため、新たな人体が座席領域において検出されたと誤判定されることはなく、人数カウントはインクリメントされずに維持される。
以上のように、車両内において非死角領域と死角領域との間を乗客が行き来した場合であっても、車両内の乗客の増減がない場合には、人数カウントの増減を行わないようにすることができる。したがって、正確な人数カウントが可能である。
(変形例)
上記実施形態においては、図10のS4dとS4eとにおいて人体Kの移動方向が、死角領域が存在する領域へ向かう方向であるか否かを判定する場合について説明したが、上記に限定されるものではない。S4cにおいて人体Kの移動位置が座席領域であると判定された場合、S4dやS4eの処理を行わずに図4のS6に移行するようにしてもよい。
また、上記実施形態においては、図10のS4aにおいて、単回帰分析により人体Kの次フレームの位置座標を推定する場合について説明したが、上記に限定されるものではない。例えば、非検出前の位置座標だけでなく、人の顔や腕や足等の身体の動きを入力として、重回帰分析等を用いて次フレームの位置座標を推定してもよい。さらに、S4aでは次フレームの位置座標の推定としたが、F(Fは0以上の実数)フレーム後の位置座標や、所定時間経過後の位置座標を推定してもよい。
また、上記実施形態においては、人体Kが非検出となった後、所定時間以上、人体Kが検出されない場合には、異常検知としてアラートを通知するようにしてもよい。
この場合、撮像装置100は、図4に示す処理に替えて図12に示す処理を実行する。なお、図12において、図4と同一処理を行うステップには図4と同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
S11では、撮像装置100は、人体Kが非検出となった後、所定時間以上、人体Kの非検出状態が継続しているか否かを判定する。そして、撮像装置100は、人体Kの非検出状態が所定期間以上継続していると判定した場合にはS12に移行する。一方、撮像装置100は、人体Kの非検出状態が所定期間以上継続していないと判定した場合にはS3に移行する。S12では、撮像装置100は、異常検知として通知する。例えば、撮像装置100は、異常検知を示す情報を、ネットワーク400を介してクライアント装置500に送信し、クライアント装置500が備える表示装置500に異常検知を示す情報を表示させる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…撮像装置、101…CPU、102…ROM、103…RAM、104…記憶装置、105…I/F、106…A/D変換部、107…カメラ信号処理部、108‥画像解析部、109…圧縮伸長部、111…人体検出部、112…人体挙動記憶部112、113…死角領域移動判定部、114…座席領域検出部、115…人数カウント部、200…撮像部、300…駆動部、400…ネットワーク、1000…カメラシステム

Claims (13)

  1. 入力画像から計数対象の物体を検出する検出手段と、
    前記検出手段により検出された前記物体の挙動を記憶する記憶手段と、
    前記検出手段により検出されていた前記物体が非検出となった場合、前記記憶手段により記憶された前記物体の挙動に基づいて、前記非検出となった物体が非死角領域から死角領域へ移動したか否かを判定する判定手段と、
    前記検出手段による前記物体の検出結果と、前記判定手段による判定結果とに基づいて、前記入力画像内の計数対象の領域における前記物体の数を計数する計数手段と、を備えることを特徴とする情報処理装置。
  2. 前記記憶手段は、前記検出手段により検出された前記物体の前記入力画像における位置の履歴を記憶することを特徴とする請求項1に記載の情報処理装置。
  3. 前記計数手段は、
    前記検出手段により前記計数対象の領域において検出された前記物体の数と、前記判定手段により前記非死角領域から前記計数対象の領域に存在する前記死角領域へ移動したと判定された前記物体の数とを加算することで、前記計数対象の領域における前記物体の数を計数することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記判定手段は、
    前記検出手段により検出されていた前記物体が非検出となった場合、
    前記物体が非検出となる前に前記記憶手段により記憶された当該物体の挙動に基づいて、前記非検出となった物体の移動位置が、前記死角領域が存在する領域であると推定された場合、当該物体が前記非死角領域から前記死角領域へ移動したと判定することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記判定手段は、
    前記検出手段により検出されていた前記物体が非検出となった場合、
    前記物体が非検出となる前に前記記憶手段により記憶された当該物体の挙動に基づいて、前記非検出となった物体の移動方向が、前記死角領域が存在する領域へ向かう方向であると推定された場合、当該物体が前記非死角領域から前記死角領域へ移動したと判定することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記判定手段により前記死角領域へ移動したと判定された前記物体が、所定時間以上、前記検出手段により検出されなかった場合、異常検知として通知する通知手段をさらに備えることを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記計数対象の物体は人体であることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  8. 前記入力画像は、車両内の撮像画像であり、
    前記計数対象の領域は、前記車両内の座席領域であり、
    前記死角領域は、座席の死角領域であることを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  9. 前記計数対象の物体は人体であり、
    前記判定手段は、
    前記検出手段により検出されていた人体が非検出となった場合、
    前記人体が非検出となる前に前記記憶手段により記憶された当該人体の挙動に基づいて、前記非検出となった人体が鉛直下方向へ移動したと推定された場合、当該人体が前記座席の死角領域へ移動したと判定することを特徴とする請求項8に記載の情報処理装置。
  10. 前記計数対象の物体は人体であり、
    前記判定手段は、
    前記検出手段により検出されていた人体が非検出となった場合、
    前記人体が非検出となる前に前記記憶手段により記憶された前記人体の挙動に基づいて、前記非検出となった人体が前記座席領域へ向かう方向へ水平移動したと推定された場合、当該人体が前記座席の死角領域へ移動したと判定することを特徴とする請求項8または9に記載の情報処理装置。
  11. 請求項1から10のいずれか1項に記載の情報処理装置と、
    車両の天井部分に設置されて前記入力画像を撮像する撮像手段と、を備えることを特徴とする撮像装置。
  12. 入力画像から計数対象の物体を検出するステップと、
    検出された前記物体の挙動を記憶するステップと、
    前記物体が非検出となった場合、前記物体の挙動に基づいて、前記非検出となった物体が非死角領域から死角領域へ移動したか否かを判定するステップと、
    前記物体の検出結果と、前記判定の結果とに基づいて、前記入力画像内の計数対象の領域における前記物体の数を計数するステップと、を含むことを特徴とする情報処理方法。
  13. コンピュータを、請求項1から10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2020123601A 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム Pending JP2022020223A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020123601A JP2022020223A (ja) 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム
US17/376,792 US20220019822A1 (en) 2020-07-20 2021-07-15 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020123601A JP2022020223A (ja) 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022020223A true JP2022020223A (ja) 2022-02-01
JP2022020223A5 JP2022020223A5 (ja) 2023-07-24

Family

ID=79292538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020123601A Pending JP2022020223A (ja) 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US20220019822A1 (ja)
JP (1) JP2022020223A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127083B2 (en) * 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
JP6354585B2 (ja) * 2012-10-19 2018-07-11 日本電気株式会社 乗車人数計数システム、乗車人数計数方法および乗車人数計数プログラム
JP5674857B2 (ja) * 2013-05-10 2015-02-25 技研トラステム株式会社 乗降者計数装置
JP6435215B2 (ja) * 2015-03-10 2018-12-05 株式会社日立製作所 エレベータシステム
US10318829B2 (en) * 2016-03-17 2019-06-11 Nec Corporation Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program
US10969584B2 (en) * 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer

Also Published As

Publication number Publication date
US20220019822A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
JP6741130B2 (ja) 情報処理システム、情報処理方法及びプログラム
EP3024227B1 (en) Image processing apparatus and image processing method
JP2022065978A (ja) 画像処理装置およびその制御方法
CN110199316B (zh) 相机和相机的图像处理方法
JP6270433B2 (ja) 情報処理装置、情報処理方法、情報処理システム
JP6914007B2 (ja) 情報処理装置および情報処理方法
US10157470B2 (en) Image processing apparatus, image processing method, and storage medium
JP6910786B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2020091649A (ja) 画像処理装置、画像処理システム、画像処理装置の制御方法、及び、プログラム
JP2018036784A (ja) システム、情報処理装置、情報処理方法及びプログラム
US10762355B2 (en) Information processing apparatus, information processing method, and storage medium to estimate queue waiting time
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
JP2001319279A (ja) 侵入物体監視方法及び侵入物体監視システム
JP2022020223A (ja) 情報処理装置、情報処理方法およびプログラム
JP4250172B2 (ja) 物体検出方法及び物体検出装置
JP7329967B2 (ja) 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム
JP2016149678A (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP2021002266A (ja) 情報処理装置
US20230062785A1 (en) Estimation apparatus, estimation method, and computer program product
JP7041046B2 (ja) グループ推定装置及びグループ推定方法
JP2019192155A (ja) 画像処理装置、撮影装置、画像処理方法およびプログラム
EP4090007A1 (en) Imaging control apparatus for controlling exposure of imaging apparatus based on subject authentication result, imaging control method, and storage medium
WO2024185076A1 (ja) ロボット装置、制御システム、制御方法、及びプログラム
US20230007167A1 (en) Image processing device and image processing system, and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240716

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20240823