JP2018106360A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018106360A
JP2018106360A JP2016250946A JP2016250946A JP2018106360A JP 2018106360 A JP2018106360 A JP 2018106360A JP 2016250946 A JP2016250946 A JP 2016250946A JP 2016250946 A JP2016250946 A JP 2016250946A JP 2018106360 A JP2018106360 A JP 2018106360A
Authority
JP
Japan
Prior art keywords
human body
region
detection
moving
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016250946A
Other languages
English (en)
Other versions
JP6501749B2 (ja
Inventor
弥志 河林
Hisashi Kawabayashi
弥志 河林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016250946A priority Critical patent/JP6501749B2/ja
Priority to US15/847,529 priority patent/US10943103B2/en
Priority to EP17209355.1A priority patent/EP3340112A1/en
Priority to CN201711432905.6A priority patent/CN108241852B/zh
Publication of JP2018106360A publication Critical patent/JP2018106360A/ja
Application granted granted Critical
Publication of JP6501749B2 publication Critical patent/JP6501749B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】動体内に存在するオブジェクトをより高速に検出することを目的とする。
【解決手段】動画像から動体を検出する動体検出手段と、検出された動体に対応する領域の一部の領域を対象として、検出対象のオブジェクトの特徴を用いてオブジェクトを検出する第1の検出手段と、を有する。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
検出された動体中からオブジェクト検出を行う技術がある(特許文献1)。
特開平9−50585号公報
しかし、この方法だと、動体領域内全てにオブジェクト検出処理を行わねばならず、実行時間がかかってしまう問題がある。組み込み機器等、ハードウェアリソースが限られる実行環境だとより実行時間が長くなってしまう。
本発明の情報処理装置は、動画像から動体を検出する動体検出手段と、前記検出された動体に対応する領域の一部の領域を対象として、検出対象のオブジェクトの特徴を用いてオブジェクトを検出する第1の検出手段と、を有する。
本発明によれば、動体内に存在するオブジェクトをより高速に検出することができる。
システム構成及びハードウェア構成の一例を示す図である。 撮像装置及びクライアント装置の機能構成の一例を示す図である。 実施形態1の情報処理の一例を示すフローチャートである。 撮像画像の一例を示す図である。 S201の動体検知処理の結果を表す図である。 S202の領域抽出処理の結果を表す図である。 実施形態2の情報処理の一例を示すフローチャートである。 外接矩形のアスペクト比を使用する一例を表す図である。 実施形態3の情報処理の一例を示すフローチャートである。 障害物があり人体の全身が撮像できない場合を示した図である。 撮像画像内の領域ごとに処理を切り替える一例を示した図である。 実施形態4の情報処理の一例を示すフローチャートである。 障害物があり人体の全身が撮像できない場合の一例を示した図である。 動体から人体を検出した結果の一例を示した図である。 自動的に学習した結果の一例を示した図である。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
本実施形態では、動画像をモニタリングする情報処理システムにおいて、撮像された動画像内で、検出された動体から高速に人体を検出する情報処理について説明する。人体は、オブジェクトの一例である。
情報処理システムのシステム構成及びハードウェア構成の一例を図1に示す。撮像装置110は、撮像を行う。クライアント装置120は、撮像装置110の駆動、撮像装置110で撮像された撮像画像の表示を行う。入力装置130は、マウスやキーボード等から構成され、クライアント装置120へのユーザー入力を行う。表示装置140は、ディスプレイ等から構成され、クライアント装置120が出力した画像の表示を行う。図1ではクライアント装置120と表示装置140とを各々独立した装置として示したが、クライアント装置120と表示装置140とを一体化して構成してもよい。また、入力装置130と表示装置140とを一体化して構成してもよいし、クライアント装置120と入力装置130と表示装置140とを一体化して構成してもよい。ネットワーク150は、撮像装置110とクライアント装置120とを接続する。ネットワーク150は、例えば、ローカルネットワーク等の通信規格を満たす複数のルータ、スイッチ、ケーブル等から構成される。本実施形態においては撮像装置、クライアント間の通信を行うことができるものであればその通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。また、クライアント装置120に接続される撮像装置の数は1台に限られず、複数台であってもよい。
図1を用いて撮像装置110のハードウェア構成について説明する。撮像装置110は、ハードウェア構成として、撮像部11と、CPU12と、メモリ13と、通信I/F14と、を含む。撮像部11は、撮像素子と撮像素子上に被写体の工学系とを有し、CPU12の制御に基づき光学系の光軸と撮像素子との交点を撮像中心として撮像素子上に撮像を行う。撮像素子は、CMOS(ComplementaryMetal−Oxide Semiconductor)又はCCD(Charged Coupled Device)等の撮像素子である。CPU12は、撮像装置110の全体を制御する。メモリ13は、プログラムや撮像部11で撮像された画像、CPU12が処理を実行する際に利用するデータ等を記憶する。通信I/F14は、CPU12の制御に基づきネットワーク150を介したクライアント装置120との通信を制御する。CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより、撮像装置110の機能構成等が実現される。
次に、クライアント装置120のハードウェア構成について説明する。クライアント装置120は、ハードウェア構成として、メモリ21と、CPU22と、通信I/F23と、入力I/F24と、表示I/F25と、を含む。CPU22は、クライアント装置120の全体を制御する。メモリ21は、プログラムや撮像装置110から送信された撮像画像、CPU22が処理を実行する際に利用するデータ等を記憶する。通信I/F23は、CPU22の制御に基づきネットワーク150を介した撮像装置110との通信を制御する。入力I/F24は、クライアント装置120と入力装置130とを接続し、入力装置130からの情報の入力を制御する。表示I/F25は、クライアント装置120と表示装置140とを接続し、表示装置140への情報の出力を制御する。CPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより、クライアント装置120の機能構成及び後述する図3、図7、図9、図12のフローチャートの処理等が実現される。但し、クライアント装置120のハードウェア構成は、図1に示されるものに限定されない。例えば、クライアント装置120は、スピーカー等の音声出力装置を有していてもよい。クライアント装置120が音声出力装置をハードウェア構成として有する場合、警告等の音声を、音声出力装置を介して出力してもよい。
図2は、撮像装置110及びクライアント装置120の機能構成の一例を示す図である。撮像装置110は、機能構成として、制御部111と、信号処理部112と、駆動制御部113と、通信制御部114と、を含む。制御部111は、撮像装置110を制御する。信号処理部112は、撮像部11によって撮像された画像信号の処理を行う。例えば、信号処理部112は、撮像部11によって撮像された画像の符号化を行う。信号処理部112は、符号化方式として、例えば、JPEG(Joint Photographic Experts Group)を用いることができる。又は、信号処理部112は、符号化方式として、H.264/MPEG−4 AVC(以下H.264)を用いることができる。又は、信号処理部112は、符号化方式として、HEVC(High Efficiency Video Coding符号化方式)を用いることができる。但し符号化方式はこれらに限らない。また、信号処理部112は、複数の符号化方式の中から符号化方式を選択して符号化を行うようにしてもよい。駆動制御部113は、撮像部11の撮像方向、及び画角を変更させる制御を行う。本実施形態では、撮像部11は、パン方向、チルト方向に撮像方向を変更でき、撮像画角を変更することができる場合について説明するが、これに限らない。撮像装置110は、パン方向、チルト方向に撮像方向を変更する機能を有さなくてもよいし、画角を変更する機能を有さなくてもよい。通信制御部114は、信号処理部112で処理が行われた撮像画像をクライアント装置120に送信する。更に通信制御部114は、クライアント装置120から撮像装置110に対する制御命令を受信する。
クライアント装置120は、機能構成として、制御部121と、通信制御部123と、情報取得部124と、表示制御部125と、を含む。制御部121は、クライアント装置120を制御する。通信制御部123は、撮像画像をクライアント装置120から受信する。情報取得部124は、入力装置130によるユーザー入力を受け付け、入力装置130より入力情報を取得する。表示制御部125は、映像を表示装置140へ出力し、後述する表示処理を表示装置140に実行させる。
本実施形態ではクライアント装置120は、撮像装置110から取得した撮像画像に対し動体中から人体検出に必要な特徴抽出処理を行う。これによって、リアルタイムのライブ映像に対して動体中から人体検出に必要な特徴抽出処理を行うことができる。しかしながらこれに限らない。例えば、クライアント装置120は、撮像装置110内に保存されている動画を取得し、各フレームに対し動体中から人体検出に必要な特徴抽出処理を行ってもよい。また、クライアント装置120は、クライアント装置120内に保存されている動画の各フレームに対して動体中から人体検出に必要な特徴抽出処理を行ってもよい。又はクライアント装置120は、録画サーバ等にアクセスし、録画サーバ内に保存されている動画の各フレームに対して動体中から人体検出に必要な特徴抽出処理を行ってもよい。
次に、本実施形態における人体検出に必要な特徴領域の抽出処理の流れを図3、図4、図5、図6を用いて説明する。
図3は、実施形態1の情報処理の一例を示すフローチャートである。
図4は、制御部121が撮像装置110から取得した撮像画像300の一例を示す図である。
図4で表わされるように、撮像画像300には動体301及び302が同時に撮像されている。
動体301及び302は移動する人体である。
クライアント装置120は、撮像装置110から、撮像画像、即ち動画像、を取得すると人体検出に必要な特徴領域の抽出し、人体検出を行う処理を開始する。
S200において、制御部121は、撮像装置110から撮像画像を取得する。
次に、S201において、制御部121は、撮像画像300に対し、動体検知処理を行う。
図5は、S201の動体検知処理の結果を表す図である。図5において、画像400は撮像画像300から検出した動体を表したものである。矩形401は検出した動体の外接矩形である。
次に、S202において、制御部121は、S201で検出された動体から人体検出に必要な特徴を含む領域のみを抽出する。
本実施形態では、人体検出には上半身の特徴を用いる。よって、制御部121は、検出された動体の上半分を抽出する。ここで、上半身の特徴とは、例えば、上半身の形状である。上半身の形状を用いたパターンマッチングにより人体を検出することができる。また、人体の上半身の色情報を用いて人体を検出してもよい。また、抽出する領域は完全に上半分である必要はなく、動体の領域における下端を含まない領域であればよい。
より具体的には、制御部121は、動体の外接矩形の縦の長さを求め、更に縦の半分の長さを求める。求めた縦の半分の長さと外接矩形の横の長さとで構成される矩形を人体検出に必要な領域とする。
本実施形態では人体検出に必要な特徴を含む領域のみの抽出手段の一例について記述したが、他の実施例では、別の方法で人体検出に必要な領域を抽出してもよい。
図6は、S202の領域抽出処理の結果を表す図である。図6において、画像500は画像400で検出された動体から人体検出に必要な領域を抽出した状態を表したものである。矩形501は元の動体の外接矩形である。矩形502は抽出した人体検出に必要な特徴領域である。また、矩形502は検出された動体に対応する領域の一部の領域の一例である。また、矩形502は検出された動体に対応する領域における上側の領域の一例である。
次に、S203において、制御部121は、S202で抽出された領域から人体を検出する。
このとき、制御部121は、抽出した人体検出、及び、検出した人体結果を、通信制御部123を用いて別端末にネットワーク150に送信してもよいし、表示装置140に表示してもよい。
次に、S204において、制御部121は、繰り返し処理を終了するか判定する。制御部121は、繰り返し処理を終了すると判定すると(S204においてYES)、図3に示すフローチャートの処理を終了し、繰り返し処理を終了しないと判定すると(S204においてNO)、S200の処理に戻る。
実施形態1の処理によれば、動体内に存在する人体をより高速に検出することができる。
<実施形態2>
実施形態1は、人体が含まれない動体でも人体検出に必要な特徴を有する領域抽出処理を行ってしまうという課題がある。そこで、実施形態2では、動体の特徴を使って、動体に人体が含まれることを判別した上で体検出に必要な特徴を有する領域抽出処理を行う。
本実施形態では、実施形態1で記述した人体検出に必要な特徴を有する領域抽出処理を実行させるかどうかを動体の特徴を用いて判定する処理について説明する。
以下、本実施形態における処理を図7、図8を用いて説明する。
図7は、実施形態2の情報処理の一例を示すフローチャートである。
S600において、制御部121は、撮像装置110から撮像画像を取得する。S600の処理は、S200の処理と同様である。
次に、S601において、制御部121は、撮像画像から動体を検出する。S601の処理は、S201の処理と同様である。
次に、S602において、制御部121は、S601で検出された動体が人体の特徴を有しているかを判定する。
より具体的には動体の外接矩形の横と縦とのアスペクト比を用いる。人体は肩幅(人体の横幅の最大値):身長(人体の縦幅の最大値)のアスペクト比の平均が0.22〜0.24:1である。したがって、制御部121は、動体の外接矩形のアスペクト比が上記のアスペクト比を満たしているかで人体の特徴を有しているかを判定する。
図8は、制御部121が、画像400から動体から人体の特徴を有しているか判定する際に動体の外接矩形のアスペクト比を使用する一例を表す図である。
図8において、画像700は画像400から動体を検出した画像である。矩形701は人体が含まれた動体の外接矩形である。アスペクト比702は矩形701の縦横比をアスペクト比で表したものである。
本実施形態では動体が人体の特徴を有しているかを判定手段の一例について記述したが、別の方法で動体が人体の特徴を有しているかを判定してもよい。
制御部121は、動体が人体の特徴を有していると判定した場合(S602においてYES)、S603に進み、動体が人体の特徴を有していないと判定した場合(S602においてNO)、S605に進む。制御部121は、S602で動体が人体の特徴を有していないと判定した場合、人体特徴抽出及び人体検出は行わない。
S603において、制御部121は、S601で検出した動体から人体検出に必要な特徴を含む領域のみを抽出する。S603の処理は、S202の処理と同様である。
次に、S604において、制御部121は、S603で抽出した領域から人体を検出する。S604の処理は、S203の処理と同様である。
S605において、制御部121は、繰り返し処理を終了するか判定する。制御部121は、繰り返し処理を終了すると判定すると(S605においてYES)、図7に示すフローチャートの処理を終了し、繰り返し処理を終了しないと判定すると(S605においてNO)、S600の処理に戻る。
実施形態2の処理によれば、動体の形状が人体形状である縦長形状の場合に、実施形態1の処理を行うので、動体内に存在する人体をより高速に検出することができる。
<実施形態3>
撮像装置を設置する環境によっては、人体が含まれる動体が遮蔽物によって全身を撮像できない領域が存在する場合がある。そこで、実施形態3では、撮像画像内の領域ごとに、実施形態1、2で記述した特徴領域から人体を検出する処理と、動体領域から人体を検出する処理と、を切り換える処理を行う。本実施形態では、領域ごとに、動体の人体特徴で判断する領域か否か、動体内の人体検出に必要な特徴領域を抽出する領域か否か、それぞれ設定値が事前にメモリ21等に保存されているものとする。例えば、CPU22は、入力装置130を介した操作者による設定操作に応じて、撮像画像に係る領域ごとに設定値をメモリ21等に保存する。
以下、本実施形態の処理を、図9、図10、図11を用いて説明する。
図9は、実施形態3の情報処理の一例を示すフローチャートである。
図10は、障害物があり人体の全身が撮像できない場合を示した図である。画像900は全身が撮像された人体と障害物に遮蔽され全身が撮像されていない人体とから、動体を検出した画像である。人体901は全身が撮像されており、人体902は全身が撮像されていない。障害物903は人体902を遮蔽する障害物である。矩形904は人体901の外接矩形である。矩形905は人体902の外接矩形である。
図11は、撮像画像内の領域ごとに、特徴領域から人体を検出する処理と、動体領域から人体を検出する処理と、を切り換える処理を図示したものである。
図11において、画像1000は画像900において特徴領域から人体を検出する処理を実行するかどうか切り換えている画像である。
矩形領域1001は、特徴領域から人体を検出する処理と、動体領域から人体を検出する処理と、を切り換える処理を実行する矩形領域である。矩形領域1002は、特徴領域から人体を検出する処理と、動体領域から人体を検出する処理と、を切り換える処理を実行しない矩形領域である。
矩形1003は、動体検出手法で検出された元の動体の外接矩形である。矩形1004は、動体内から人体検出に必要な領域のみを抽出する処理で抽出された領域である。矩形1005は、動体検出手法で検出された元の動体の外接矩形、かつ、人体検出を行う領域である。
S800において、制御部121は、撮像装置110から撮像画像を取得する。S800の処理は、S200の処理と同様である。
次に、S801において、制御部121は、撮像画像から動体を検出する。S801の処理は、S201の処理と同様である。
次に、S802において、制御部121は、処理対象の領域が、動体の人体特徴を使って判断する領域かどうかを判定する。より具体的に説明すると、制御部121は、メモリ21に保存されている、動体の人体特徴で判断する領域か否かを示す設定値に基づいて、処理対象の領域が、動体の人体特徴を使って判断する領域かどうかを判定する。制御部121は、処理対象の領域が、動体の人体特徴を使って判断する領域であると判定した場合(S802においてYES)、S803に進み、動体の人体特徴を使って判断する領域でないと判定した場合(S802においてNO)、S804に進む。
S803において、制御部121は、動体が人体の特徴を持っているか否かを判定する。より具体的には、制御部121は、実施形態2のS602の方法で判定する。例えば、制御部121は、図11の矩形領域1001を動体が人体の特徴を持っている領域であると判定し、図11の矩形領域1002を動体が人体の特徴を持っている領域でないと判定する。制御部121は、動体が人体の特徴を持っていると判定した場合(S803においてYES)、S805に進み、動体が人体の特徴を持っていないと判定した場合(S803においてNO)、S804に進む。制御部121は、実施形態2のS602の方法以外の方法で動体が人体の特徴を持っているか否かを判定してもよい。
S804において、制御部121は、動体領域から人体を検出する。
S805において、制御部121は、処理対象の領域が、動体内の人体検出に必要な特徴領域を抽出する領域かどうかを判定する。より具体的に説明すると、制御部121は、メモリ21に保存されている、動体内の人体検出に必要な特徴領域を抽出する領域か否かを示す設定値に基づいて、処理対象の領域が、動体内の人体検出に必要な特徴領域を抽出する領域かどうかを判定する。制御部121は、処理対象の領域が、動体内の人体検出に必要な特徴領域を抽出する領域であると判定した場合(S805においてYES)、S806に進む。一方、制御部121は、処理対象の領域が、動体内の人体検出に必要な特徴領域を抽出する領域でないと判定した場合(S805においてNO)、S804に進む。
S806において、制御部121は、S801で検出した動体から人体検出に必要な特徴を含む領域のみを抽出する。S806の処理は、S202の処理と同様である。
次に、S807において、制御部121は、S806で抽出した領域から人体を検出する。S807の処理は、S203の処理と同様である。
S808において、制御部121は、繰り返し処理を終了するか判定する。制御部121は、繰り返し処理を終了すると判定すると(S808においてYES)、図9に示すフローチャートの処理を終了し、繰り返し処理を終了しないと判定すると(S808においてNO)、S800の処理に戻る。
本実施形態では、領域ごとに、動体の人体特徴で判断する領域か否か、動体内の人体検出に必要な特徴領域を抽出する領域か否か、それぞれ設定値が事前にメモリ21等に保存されているものとした。しかし、領域ごとに、動体の人体特徴で判断する領域であり、かつ、動体内の人体検出に必要な特徴領域を抽出する領域か否かの設定値を事前にメモリ21等に保存するようにしてもよい。この場合、制御部121は、S802とS805とにおいて同じ設置値に基づき判定を行う。
実施形態3の処理によれば、人体を遮蔽する障害物がある領域では、動体領域から人体を検出する処理を行い、人体を遮断する障害物がない領域では、実施形態1、2の処理を行うので、領域に応じて適切に動体内に存在する人体を検出することができる。
<実施形態4>
実施形態3では、領域ごとに、動体の人体特徴で判断する領域か否か、動体内の人体検出に必要な特徴領域を抽出する領域か否か、設定値を事前に設定する必要があった。しかし、領域ごとに設定値を事前に設定するのは、情報処理システムの設置者の負担になる。そこで、実施形態4では、特徴領域から人体を検出する処理と、動体領域から人体を検出する処理と、を切り換える処理を自動で学習する処理について説明する。
以下、本実施形態の処理を、図12、図13、図14、図15を用いて説明する。
図12は、実施形態4の情報処理の一例を示すフローチャートである。
図13は、障害物があり人体の全身が撮像できない場合の一例を示した図である。図13において、画像1200は全身が撮像された人体と、障害物に遮蔽され全身が撮像されていない人体とから、動体を検出した画像である。矩形1201は、全身が撮像された人体の外接矩形である。矩形1202は、全身が撮像されていない人体の外接矩形である。
S1100において、制御部121は、撮像装置110から撮像画像を取得する。S1100の処理は、S200の処理と同様である。
次に、S1101において、制御部121は、撮像画像から動体を検出する。S1101の処理は、S201の処理と同様である。
次に、S1102において、制御部121は、処理対象の領域が、動体の人体特徴を使って判断する領域かどうかを判定する。より具体的に説明すると、制御部121は、メモリ21に保存されている、設定値に基づいて、処理対象の領域が、動体の人体特徴を使って判断する領域かどうかを判定する。制御部121は、処理対象の領域が、動体の人体特徴を使って判断する領域であると判定した場合(S1102においてYES)、S1103に進み、動体の人体特徴を使って判断する領域でないと判定した場合(S1102においてNO)、S1104に進む。
S1103において、制御部121は、動体が人体の特徴を持っているか否かを判定する。より具体的には、制御部121は、実施形態2のS602の方法で判定する。制御部121は、動体が人体の特徴を持っていると判定した場合(S1103においてYES)、S1105に進み、動体が人体の特徴を持っていないと判定した場合(S1103においてNO)、S1104に進む。制御部121は、実施形態2のS602の方法以外の方法で動体が人体の特徴を持っているか否かを判定してもよい。
S1104において、制御部121は、動体領域から人体を検出する。
S1105において、制御部121は、処理対象の領域が、動体内の人体検出に必要な特徴領域を抽出する領域かどうかを判定する。より具体的に説明すると、制御部121は、メモリ21に保存されている、設定値に基づいて、処理対象の領域が、動体の人体特徴を使って判断する領域かどうかを判定する。制御部121は、処理対象の領域が、動体内の人体検出に必要な特徴領域を抽出する領域であると判定した場合(S1105においてYES)、S1106に進む。一方、制御部121は、処理対象の領域が、動体内の人体検出に必要な特徴領域を抽出する領域でないと判定した場合(S1105においてNO)、S1104に進む。
S1106において、制御部121は、S1101で検出した動体から人体検出に必要な特徴を含む領域のみを抽出する。S1106の処理は、S202の処理と同様である。
次に、S1107において、制御部121は、S1106で抽出した領域から人体を検出する。S1107の処理は、S203の処理と同様である。
S1108において、制御部121は、S1104で人体を検出したか否かを判定する。制御部121は、人体を検出したと判定した場合(S1108においてYES)、S1109に進み、人体を検出していないと判定した場合(S1108においてNO)、S1111に進む。
S1109において、制御部121は、S1101で検出された動体が人体の特徴を有しているかを判定する。より具体的には、制御部121は、実施形態2のS602の方法で判定する。制御部121は、動体が人体の特徴を有していると判定すると(S1109においてYES)、S1110に進み、動体が人体の特徴を有していないと判定すると(S1109においてNO)、S1111に進む。制御部121は、実施形態2のS602の方法以外の方法で動体が人体の特徴を持っているか否かを判定してもよい。
図14は、画像1200で動体から人体を検出した結果の一例を示した図である。図14において、画像1300は画像1200に含まれる動体から人体を検出した画像である。矩形1301及び矩形1302は人体が含まれる動体の外接矩形である。アスペクト比1303は矩形1301の縦横比をアスペクト比で表したものである。アスペクト比1304は矩形1302の縦横比をアスペクト比で表したものである。
S1110において、制御部121は、処理対象の領域を、動体の人体特徴で判断し、動体内の人体検出に必要な特徴領域を抽出する領域であると設定し、メモリ21等に処理対象の領域の情報と共に設定値を設定する。
図15は、S1110で自動的に学習した結果の一例を示した図である。図15において、画像1400はS1119で学習した後の撮像画像で動画像から人体検出を行っている画像である。
矩形1401は、特徴領域から人体を検出する処理と、動体領域から人体を検出する処理と、を切り換える処理を実行する矩形領域である。矩形1402は、特徴領域から人体を検出する処理と、動体領域から人体を検出する処理と、を切り換える処理を実行しない矩形領域である。
矩形1403は、動体検出手法で検出された元の動体の外接矩形である。矩形1404は、動体内から人体検出に必要な領域のみを抽出する処理で抽出された領域である。矩形1405は、動体検出手法で検出された元の動体の外接矩形、かつ、人体検出を行う領域である。
S1111において、制御部121は、繰り返し処理を終了するか判定する。制御部121は、繰り返し処理を終了すると判定すると(S1111においてYES)、図12に示すフローチャートの処理を終了し、繰り返し処理を終了しないと判定すると(S1111においてNO)、S1100の処理に戻る。
実施形態4の処理によれば、人体を遮蔽する障害物がある領域では、動体領域から人体を検出する処理を行い、人体を遮断する障害物がない領域では、実施形態1、2の処理を行うので、領域に応じて適切に動体内に存在する人体を検出することができる。また、実施形態4の処理によれば、実施形態3の処理に比べて、事前に領域ごとに設定値を設定する手間を省くことができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。図2に示した撮像装置110の機能構成の一部はハードウェア構成として撮像装置110に実装されてもよい。また、図2に示したクライアント装置120の機能構成の一部はハードウェア構成としてクライアント装置120に実装されてもよい。また、図1に示した撮像装置110、クライアント装置120のハードウェア構成は一例であり、複数のCPUやメモリ、通信I/F等を有していてもよい。
また、上述した各実施形態を任意に組み合わせて実施してもよい。
また、制御部121は、抽出した特徴領域すべてに対して人体を検出する処理を行うのではなく、矩形の形状等に応じて、人体が検出された時点で、検出処理を終了するようにしてもよい。このようにすることにより、より高速に人体を検出することができる。
また、上述した各実施形態では、フローチャートの処理を、クライアント装置120で行うように説明を行ったが、例えば、各フローチャートの処理の一部、又はすべてを撮像装置110で行うようにしてもよい。例えば、図3のフローチャートにおいて、S200〜S202までを撮像装置110が行った場合、撮像装置110のCPU12は、抽出した特徴領域を通信I/F14を介してクライアント装置120に送信する。クライアント装置120のCPU22は、特徴領域を撮像装置110より受信すると、S203の処理を実行し、処理結果を表示装置140等に表示する。
また、上述した各実施形態では、動体内に存在する人体を検出する例を用いて説明を行ったが、検出対象は人体に限らず、例えば、動体内に存在する車、バイク、ドローン、家畜等であってもよい。
以上、上述した各実施形態によれば、動体内に存在するオブジェクト(例えば、人体)をより高速に検出することができる。
12 CPU
22 CPU
110 撮像装置
120 クライアント装置

Claims (11)

  1. 動画像から動体を検出する動体検出手段と、
    前記検出された動体に対応する領域の一部の領域を対象として、検出対象のオブジェクトの特徴を用いてオブジェクトを検出する第1の検出手段と、
    を有する情報処理装置。
  2. 前記検出された動体が前記オブジェクトの特徴を有しているか否かを判定する判定手段を更に有し、
    前記判定手段により前記動体が前記オブジェクトの特徴を有していると判定された場合、前記第1の検出手段は、前記一部の領域として、前記検出された動体から検出対象の特徴を含む領域を抽出し、抽出した領域から前記オブジェクトを検出する請求項1記載の情報処理装置。
  3. 前記検出された動体から前記オブジェクトを検出する第2の検出手段を更に有し、
    前記動画像の領域に応じて、前記第1の検出手段によるオブジェクトの検出と前記第2の検出手段によるオブジェクトの検出とを切り替える請求項1又は2記載の情報処理装置。
  4. 前記動画像に含まれる領域ごとに前記第1の検出手段により前記オブジェクトの検出を行うか否かを示す設定値を設定する設定手段を更に有し、
    前記動画像に含まれる領域ごとに前記設定値が設定されているか否かに応じて、前記第1の検出手段によるオブジェクトの検出と前記第2の検出手段によるオブジェクトの検出とを切り替える請求項3記載の情報処理装置。
  5. 前記設定手段は、設定操作に基づいて前記動画像の領域ごとに前記設定値を設定する請求項4記載の情報処理装置。
  6. 前記第2の検出手段により処理対象の領域より前記オブジェクトが検出され、かつ、前記検出された動体が前記検出対象のオブジェクトの特徴を有している場合、前記設定手段は、前記処理対象の領域に、前記第1の検出手段により前記オブジェクトの検出を行うことを示す設定値を設定する請求項4記載の情報処理装置。
  7. 前記オブジェクトは人体である請求項1乃至6何れか1項記載の情報処理装置。
  8. 前記第1の検出手段は、前記一部の領域として前記検出対象のオブジェクトの特徴を含む領域を対象として、前記検出対象のオブジェクトの特徴を用いて前記オブジェクトを検出する請求項1乃至7何れか1項記載の情報処理装置。
  9. 前記オブジェクトは人体であり、
    前記第1の検出手段は、前記一部の領域として前記動体に対応する領域における上側の領域を対象として、人体の上半身の特徴を用いて人体を検出する請求項1乃至8何れか1項記載の情報処理装置。
  10. 情報処理装置が実行する情報処理方法であって、
    動画像から動体を検出する動体検出工程と、
    前記検出された動体に対応する領域の一部の領域を対象として、検出対象のオブジェクトの特徴を用いてオブジェクトを検出する検出工程と、
    を含む情報処理方法。
  11. コンピュータを、請求項1乃至9何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
JP2016250946A 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム Active JP6501749B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016250946A JP6501749B2 (ja) 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム
US15/847,529 US10943103B2 (en) 2016-12-26 2017-12-19 Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium
EP17209355.1A EP3340112A1 (en) 2016-12-26 2017-12-21 Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium
CN201711432905.6A CN108241852B (zh) 2016-12-26 2017-12-26 人体检测设备和方法、信息处理设备和方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016250946A JP6501749B2 (ja) 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018106360A true JP2018106360A (ja) 2018-07-05
JP6501749B2 JP6501749B2 (ja) 2019-04-17

Family

ID=60954730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016250946A Active JP6501749B2 (ja) 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US10943103B2 (ja)
EP (1) EP3340112A1 (ja)
JP (1) JP6501749B2 (ja)
CN (1) CN108241852B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129517A1 (ja) * 2018-12-18 2020-06-25 日立オートモティブシステムズ株式会社 画像処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295781A (ja) * 2003-03-28 2004-10-21 Ocean Network Entertainment:Kk 画像認識方法、及び画像認識装置
JP2008048075A (ja) * 2006-08-11 2008-02-28 Victor Co Of Japan Ltd 動き検出装置及び動き検出方法
WO2010079556A1 (ja) * 2009-01-09 2010-07-15 パナソニック株式会社 移動体検出方法および移動体検出装置
JP2012159957A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
JP2016015016A (ja) * 2014-07-02 2016-01-28 国立大学法人 奈良先端科学技術大学院大学 動作認識装置及び動作認識方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950585A (ja) 1995-08-07 1997-02-18 Hitachi Ltd 侵入者監視装置
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
CN101777114B (zh) * 2009-01-08 2013-04-24 北京中星微电子有限公司 视频监控智能分析系统和方法及头肩检测跟踪系统和方法
CN101464946B (zh) * 2009-01-08 2011-05-18 上海交通大学 基于头部识别和跟踪特征的检测方法
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP5959951B2 (ja) * 2012-06-15 2016-08-02 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
JP2015014960A (ja) * 2013-07-05 2015-01-22 ソニー株式会社 情報処理装置、および記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295781A (ja) * 2003-03-28 2004-10-21 Ocean Network Entertainment:Kk 画像認識方法、及び画像認識装置
JP2008048075A (ja) * 2006-08-11 2008-02-28 Victor Co Of Japan Ltd 動き検出装置及び動き検出方法
WO2010079556A1 (ja) * 2009-01-09 2010-07-15 パナソニック株式会社 移動体検出方法および移動体検出装置
JP2012159957A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
JP2016015016A (ja) * 2014-07-02 2016-01-28 国立大学法人 奈良先端科学技術大学院大学 動作認識装置及び動作認識方法

Also Published As

Publication number Publication date
CN108241852B (zh) 2022-08-19
JP6501749B2 (ja) 2019-04-17
US10943103B2 (en) 2021-03-09
CN108241852A (zh) 2018-07-03
EP3340112A1 (en) 2018-06-27
US20180181801A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
KR102132248B1 (ko) 촬상 장치를 제어하는 제어 장치, 제어 방법, 및 컴퓨터 판독가능 기억 매체
CN108810400B (zh) 控制设备、控制方法和记录介质
WO2019204969A1 (en) Methods for automatically switching video capturing and playing back frame rate
JP7371076B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN110557607B (zh) 图像处理设备、信息处理设备、信息处理方法和记录介质
JP6501749B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6525934B2 (ja) 画像処理装置および制御方法
JP6231757B2 (ja) 撮像装置、情報処理装置及びそれらの制御方法、プログラム
JP7134716B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5268796B2 (ja) 移動物体領域検出装置及び移動物体領域検出プログラム
JP6157220B2 (ja) 出力装置およびその方法
JP6735594B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP7208713B2 (ja) 画像解析装置および画像解析方法
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
CN110647792B (zh) 信息处理设备、控制方法和存储介质
US10885348B2 (en) Information processing device, information processing method, and storage medium
JP6448457B2 (ja) 撮影方向変動検出装置および撮影方向変動検出方法
JP2007019759A (ja) 監視カメラ
US20180376058A1 (en) Display processing apparatus, display processing method, and computer-readable medium for executing display processing method
JP2020036196A (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
US12063432B2 (en) Information processing apparatus, information processing method, and storage medium
JP6808398B2 (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP2017097815A (ja) 情報処理装置、情報処理方法およびプログラム
JP2023063765A (ja) 画像処理装置、画像処理方法、画像処理システム、およびプログラム
CN115917592A (zh) 人体检测装置以及人体检测方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190319

R151 Written notification of patent or utility model registration

Ref document number: 6501749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151