JP2017215666A - 制御装置、制御方法およびプログラム - Google Patents

制御装置、制御方法およびプログラム Download PDF

Info

Publication number
JP2017215666A
JP2017215666A JP2016107454A JP2016107454A JP2017215666A JP 2017215666 A JP2017215666 A JP 2017215666A JP 2016107454 A JP2016107454 A JP 2016107454A JP 2016107454 A JP2016107454 A JP 2016107454A JP 2017215666 A JP2017215666 A JP 2017215666A
Authority
JP
Japan
Prior art keywords
likelihood
target
image
output method
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016107454A
Other languages
English (en)
Other versions
JP6629139B2 (ja
Inventor
英貴 大平
Hideki Ohira
英貴 大平
雄土 山地
Yuto Yamaji
雄土 山地
智行 柴田
Satoyuki Shibata
智行 柴田
山口 修
Osamu Yamaguchi
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016107454A priority Critical patent/JP6629139B2/ja
Priority to US15/440,520 priority patent/US10235607B2/en
Publication of JP2017215666A publication Critical patent/JP2017215666A/ja
Application granted granted Critical
Publication of JP6629139B2 publication Critical patent/JP6629139B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】隠ぺいされている対象をより容易に確認可能とする制御装置、制御方法およびプログラムを提供する。
【解決手段】制御装置は、算出部と、決定部と、表示制御部と、を備える。算出部は、画像内に含まれる対象を検出し、対象が隠ぺいされているかを示す尤度を算出する。決定部は、尤度に応じて対象の出力方法を決定する。表示制御部は、画像と決定された出力方法とに基づいて表示画像を生成する。
【選択図】図1

Description

本発明の実施形態は、制御装置、制御方法およびプログラムに関する。
隠ぺいされる場合がある移動体を画像から検出し、検出結果を表示する技術が提案されている。この技術では、例えば監視カメラ画像内で自由歩行する人物について、画面内で動きのある部分から顔の位置を推定し、推定位置で顔検出できない場合は顔を隠していると判断し、顔部分をズームするなどの表示に対する制御を行う。
特開平07―073298号公報
しかしながら、従来技術では、隠ぺいされている対象を確認できない場合があった。例えば、顔検出器、上半身検出器、および、人物検出器などには、顔が無いにも関わらず顔があるべき位置であると誤判断したり、顔を隠していないにも関わらず顔を隠していると誤判断したりする問題がある。このため、これらの誤判断によって顔を隠している人物の確認が困難になる場合があった。
実施形態の制御装置は、算出部と、決定部と、表示制御部と、を備える。算出部は、画像内に含まれる対象を検出し、対象が隠ぺいされているかを示す尤度を算出する。決定部は、尤度に応じて対象の出力方法を決定する。表示制御部は、画像と決定された出力方法とに基づいて表示画像を生成する。
第1の実施形態にかかる制御装置のブロック図。 第1の実施形態における表示制御処理のフローチャート。 第1の実施形態の表示画面の一例を示す図。 第1の実施形態の表示画面の一例を示す図。 第1の実施形態の表示画面の一例を示す図。 第2の実施形態にかかる制御装置のブロック図。 第2の実施形態における表示制御処理のフローチャート。 第3の実施形態にかかる制御装置のブロック図。 第3の実施形態における表示制御処理のフローチャート。 第3の実施形態の表示画面の一例を示す図。
以下に添付図面を参照して、この発明にかかる制御装置の好適な実施形態を詳細に説明する。
(第1の実施形態)
第1の実施形態にかかる制御装置は、画像から、検出の対象となる物体(人物、車両等)を検出し、対象が隠ぺいされているかを示す尤度を算出する。そして制御装置は、尤度に応じて、対象の出力方法を決定し、決定した出力方法に基づいて表示画像を生成して出力する。これにより、隠ぺいされている対象をより容易に確認可能となる。
図1は、第1の実施形態にかかる制御装置100の構成例を示すブロック図である。図1に示すように、制御装置100は、処理回路110と、撮影部120と、記憶部130と、UI(ユーザインタフェース)部140と、を備えている。記憶部130、UI部140、および、撮影部120は、処理回路110に電気的に接続されている。
UI部140は、各種画像を表示する表示機能と、ユーザからの各種操作指示を受付ける入力機能と、を有する。本実施形態では、UI部140は、表示部141と、入力部142と、を含む。表示部141は、種々の画像を表示する。表示部141は、例えばCRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ、および、プラズマディスプレイなどである。入力部142は、ユーザからの各種指示や情報入力を受け付ける。入力部142は、例えば、キーボード、マウス、スイッチ、および、マイクなどである。
なお、UI部140は、表示部141と入力部142とを一体的に構成したタッチパネルなどであってもよい。UI部140は、有線または無線で処理回路110に接続している。UI部140はネットワークを介して処理回路110と接続してもよい。
撮影部120は、撮影によって画像を得る。撮影部120は、例えばデジタルカメラである。撮影部120は、処理回路110から離れた位置に配置されていてもよい。例えば、撮影部120は、道路、公共スペース、および、ビル構内などに配置された監視カメラであってもよい。また、撮影部120は、車両などの移動体に配置された車載カメラ、および、携帯端末に設けられたカメラであってもよい。また、撮影部120は、ウェアラブルカメラであってもよい。撮影部120を制御装置100の外部に備え、撮影部120により撮影された画像を、ネットワーク等を介して制御装置100が取得するように構成してもよい。
なお、撮影部120は、可視光による反射光を撮影する可視光カメラに限定されず、赤外カメラ、デプスマップを取得可能なカメラ、および、距離センサや超音波センサなどを用いて撮影を行うカメラであってもよい。すなわち、本実施形態で用いる画像は、可視光による反射光の撮影画像、赤外画像、デプスマップ、および、超音波撮影画像などであり、特定の画像に限定されない。
記憶部130は、各種データを記憶する。例えば記憶部130は、撮影部120により撮影された画像を記憶する。記憶部130は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ROM(Read Only Memory)、および、メモリカードなどの、磁気的、光学的、および、電気的に記憶可能な記憶媒体の少なくともいずれかにより実現する。記憶部130を構成する記憶媒体は1つに限られず、複数の記憶媒体により構成されてもよい。記憶部130は、制御装置100の外部の記憶装置で代替されてもよい。
処理回路110は、取得機能101、算出機能102、決定機能103、および、表示制御機能104を備える。取得機能101、算出機能102、決定機能103、および、表示制御機能104は、それぞれ取得部、算出部、決定部、および、表示制御部の一例である。これらの各処理機能は、後述する。
制御装置100にて行われる各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶部130に記憶されている。処理回路110はプログラムを記憶部130から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。各プログラムを読みだした状態の処理回路110は、図1の処理回路110内に示された各機能を有することになる。
なお、図1においては単一の処理回路110が示されているが、複数の独立したプロセッサを組み合わせて処理回路110を構成してもよい。各処理機能がプログラムとして構成され、処理回路110が各プログラムを実行しもよいし、各処理機能の一部または全部が専用の独立した実行回路に実装されてもよい。すなわち、各処理機能は、ソフトウェアにより実現してもよいし、ハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、および、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))などの回路を意味する。
プロセッサは、記憶部130に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶部130にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
取得機能101は、処理対象とする画像を取得する。例えば取得機能101は、撮影部120(車載カメラ、ビデオカメラ、ネットワークカメラなど)から画像を取得する。取得機能101は、オンラインでリアルタイムに画像を取得してもよいし、記憶部130などの記憶媒体に保存された画像をオフラインで取得してもよい。
算出機能102は、画像内に含まれる対象を検出し、検出した対象が隠ぺいされているかを示す尤度を算出する。検出する対象は、例えば、人物、人物の一部(顔など)、車両、および、車両の一部(ナンバープレートなど)等の物体(移動体)であるが、これらに限られるものではない。また、例えば対象が人物(顔)の場合、マスク、サングラス、覆面、および、手などが、対象を隠ぺいする隠ぺい物の例となる。特定されたくないと考える人物は、これらの隠ぺい物で顔を隠すことで、画像に顔が映らないようにする。対象が車両(ナンバープレート)の場合、板などが隠ぺい物の例となる。特定されたくないと考える人物は、このような隠ぺい物でナンバープレートを隠すことで、車両を特定できなくする可能性がある。
画像から対象を検出して尤度を算出する方法としては、対象を示す予め登録したパターン(色、輝度値、輝度勾配など)と照合する方法などの、従来から用いられているあらゆる方法を適用できる。
算出機能102は、例えば、対象であることの確からしさを示す尤度を算出する。算出機能102は、例えば登録した対象の特徴量との一致度がより大きい場合に、より大きい値となる尤度を算出する。
色を用いて人物を検出して尤度を算出する場合、算出機能102は、画像から抽出した色が、人の肌の色であれば大きい値となり、肌の色でない場合は小さい値となるように尤度を算出する。輝度値や輝度勾配を用いて移動体を検出して尤度を算出する場合、算出機能102は、画像から抽出した輝度値や輝度勾配と、予め登録されている移動体の輝度値や輝度勾配との差を算出し、差が小さい場合は大きい値となり、差が大きい場合は小さい値となるように尤度を算出する。
このように算出された尤度は、対象が隠ぺいされていることを示す情報として利用できる。例えば画像中の尤度が一定の閾値より大きい箇所は、対象が存在する可能性が高い。また、尤度は、対象が隠ぺいされていない場合は大きくなり、隠ぺいされている場合は小さくなる。例えばマスクやサングラスで顔を隠している人物については、画像から抽出した顔周辺の色が肌色ではないため、色を基準に算出された尤度は小さくなる。また、輝度値や輝度勾配を基準に算出された尤度についても、隠ぺい物によってテクスチャや形状が変化するため、予め登録されている対象の輝度値や輝度勾配との差が大きくなり、値が小さくなる。
そこで本実施形態では、尤度が閾値より大きく、かつ、値が小さいほど対象が隠ぺいされていると判断する。
決定機能103は、尤度に応じて対象の出力方法を決定する。例えば決定機能103は、尤度が閾値(第1の閾値)より大きく、かつ、値が小さいほど、対象が隠ぺいされていると判断し、この対象を強調して表示する出力方法を決定する。これにより、隠ぺい物が存在する対象ほど容易に確認可能となる。決定機能103は、隠ぺいされている対象のうち尤度が小さいほど、より強調して表示する出力方法を決定してもよい。決定機能103は、尤度が第2の閾値(第1の閾値より大きい値)以上である対象については、隠ぺい物が存在しないと判断して、強調表示しない出力方法を決定してもよい。
強調表示する方法はどのような方法であってもよい。例えば、対象を特定する画像の表示態様を変更する方法、および、対象を拡大表示する方法などを適用できる。対象を特定する画像は、例えば、所定の形状(矩形、円、楕円など)の枠などである。表示態様は、線の太さ、線の色、および、線の透明度などである。例えば決定機能103は、強調表示が必要な対象ほど、線の太さを太くする、線の色を濃くする、または、線の透明度を低くする出力方法を決定する。
表示制御機能104は、表示部141などに対する情報の表示処理を制御する。例えば表示制御機能104は、取得された画像と、決定された出力方法とに基づいて、表示部141などに表示するための表示画像を生成し、表示画像を表示部141に表示させる。表示制御機能104は、例えば、隠ぺいされていると判断された対象を強調表示する表示画像を生成する。表示画像の詳細は後述する。
次に、このように構成された第1の実施形態にかかる制御装置100による表示制御処理について図2を用いて説明する。図2は、第1の実施形態における表示制御処理の一例を示すフローチャートである。
取得機能101は、処理する対象となる画像を取得する(ステップS101)。算出機能102は、取得した画像から対象を検出し、対象であることの確からしさを表す尤度を算出する(ステップS102)。決定機能103は、検出した対象が隠ぺいされているか否かを判定する(ステップS103)。例えば決定機能103は、算出された尤度が第1の閾値より大きく、かつ、第2の閾値より小さい場合に、対象が隠ぺいされていると判定する。
対象が隠ぺいされていない場合(ステップS103:No)、この対象は強調表示等せずに処理を終了する。対象が隠ぺいされている場合(ステップS103:Yes)、決定機能103は、尤度に応じた出力方法を決定する(ステップS104)。例えば決定機能103は、尤度が小さいほど対象を強調表示する出力方法を決定する。決定機能103は、ステップS103で対象が隠ぺいされているかを判断せず、尤度から直接出力方法を決定してもよい。
表示制御機能104は、決定された出力方法に従い対象を表示する(ステップS105)。例えば表示制御機能104は、隠ぺいされていると判断された対象について、尤度が小さいほど、より強調する表示画像を生成し、表示部141に表示する。
次に、表示画面の例について説明する。図3〜図5は、第1の実施形態の表示画面の一例を示す図である。図3〜図5は、顔を検出の対象とし、マスクなどで隠ぺいされた顔を強調して表示する例を示す。
図3では、4つの顔のうち画像の上部および下部の顔が強調表示された例を示す。矩形301は、顔として検出されたが尤度が小さいため太い線で表示されている。矩形302は、矩形301に対応する顔より尤度が大きいため、矩形301より細い線で表示されている。なお他の顔は、尤度が大きい(第2の閾値以上)ため強調表示されない。
図4では、実際には顔でない領域も顔として検出された例が示されている。このような領域であっても、顔が隠ぺい物(マスクなど)で隠ぺいされた領域より、尤度が大きく算出される場合がある。本実施形態によれば、このような場合に、隠ぺい物で隠ぺいされた顔をより強調して表示することが可能となる。
図5では、線の色を変更する例が示されている。矩形501は、顔として検出されたが尤度が小さいため、より認識しやすい色の線で表示されている。矩形502は、矩形501に対応する顔より尤度が大きいため、矩形501より薄い線で表示されている。
(変形例1)
検出した対象が隠ぺいされているかを示す尤度の算出方法は上記に限られるものではない。例えば、算出機能102は、画像から、画像内に含まれる隠ぺいされている対象を検出し、隠ぺいされていることの確からしさを示す尤度を算出してもよい。算出機能102は、例えば、マスクやサングラスなどの隠ぺい物を装着した顔の輝度値や輝度勾配を予め登録し、登録した情報と照合することで、マスクやサングラスを装着した顔の尤度を算出する。この場合、算出機能102は、例えば登録した情報との一致度がより大きい場合に、より大きい値となる尤度を算出する。
本変形例では、決定機能103は、尤度が大きい対象(顔など)ほど強調して表示する出力方法を決定する。
(変形例2)
また、例えば、花粉が多い日や日差しが強い日など、マスクやサングラスを装着している人物が一般的となる場合は、これらの人物を強調表示しないように制御してもよい。この場合、マスクやサングラスなどの登録された隠ぺい物以外の物体で隠ぺいされた人物を強調表示してもよい。例えば、上記実施形態の方法により隠ぺいされていると判定(ステップS103:Yes)された対象から、登録された隠ぺい物で隠ぺいされた対象を除外して、強調表示を実行してもよい。登録された隠ぺい物で隠ぺいされているかは、変形例などの方法で検出できる。
このように、第1の実施形態にかかる制御装置では、対象が隠ぺいされているかを示す尤度に応じて対象の出力方法を決定し、決定した出力方法に基づいて表示画像を生成して出力する。これにより、例えば隠ぺい物が存在する対象ほど強調して表示することができる。すなわち、隠ぺいされている対象をより容易に確認可能となる。
(第2の実施形態)
第2の実施形態にかかる制御装置は、まず画像内に含まれる第1の対象(人物の全身、上半身など)を検出し、第1の対象の一部である第2の対象(顔など)を検出し、第2の対象が隠ぺいされているかを示す尤度を算出する。
図6は、第2の実施形態にかかる制御装置100−2の構成の一例を示すブロック図である。図6に示すように、制御装置100−2は、処理回路110−2と、撮影部120と、記憶部130と、UI部140と、を備えている。
第2の実施形態では、処理回路110−2に含まれる算出機能102−2および決定機能103−2が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる制御装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
算出機能102−2は、画像内に含まれる第1の対象を検出し、第1の対象の一部である第2の対象を検出し、第2の対象が隠ぺいされているかを示す尤度を算出する。以下では、第1の対象として人物の上半身を検出し、第2の対象として顔を検出する場合を例に説明する。第1の対象および第2の対象はこれに限られるものではない。例えば、車両を第1の対象とし、ナンバープレートを第2の対象としてもよい。
算出機能102−2は、まず、画像から人物の上半身を検出し、上半身としての確からしさを表す尤度L1(第1の尤度、上半身尤度)を算出する。算出機能102−2は、尤度L1が閾値(第3の閾値)より大きい人物に対して、画像から顔を検出し、顔としての確からしさを表す尤度L2(第2の尤度、顔尤度)を算出する。
上半身の尤度L1は、例えば、頭部の輪郭や肩の形状を用いて算出できる。算出機能102−2は、例えば、画像から抽出した輝度値や輝度勾配が、頭部の輪郭や肩の形状を表していれば大きい値となるように尤度L1を算出する。頭部の輪郭や肩の形状は、マスクやサングラスなど、顔の色やテクスチャを変化させる隠ぺい物の影響を受けにくいため、上半身尤度は、顔を隠ぺいしている人物であっても、大きい値となる。顔の尤度L2は、顔の色やテクスチャを用いて算出されるため、顔を隠ぺいしている人物の場合、小さい値となる。
決定機能103−2は、尤度L1および尤度L2に応じて対象の出力方法を決定する。上記のように、上半身の尤度L1は、顔への隠ぺい物の影響を受けにくい。尤度L1が小さい場合は、人物の居ない箇所を誤認識している可能性があるため、線の太さを細くする、透明度を高くするなどによって強調しないことが望ましい。
一方、顔の尤度L2は、顔への隠ぺい物がある場合、小さい値となる。このため、尤度L2が一定の閾値より大きく、かつ、尤度L2が小さいほど強調して表示することが望ましい。
そこで決定機能103−2は、尤度L1の逆数と、尤度L2との積が小さいほど強調して表示する出力方法を決定する。これにより、上半身の尤度L1が大きく、かつ、顔の尤度L2が小さい人物を強調表示可能になる。決定機能103−2は、尤度L1の逆数と、尤度L2との和が小さいほど強調して表示する出力方法を決定してもよい。この場合、上半身の尤度L1が大きい、または、顔の尤度L2が小さい人物を強調表示可能になる。
次に、このように構成された第2の実施形態にかかる制御装置100−2による表示制御処理について図7を用いて説明する。図7は、第2の実施形態における表示制御処理の一例を示すフローチャートである。
取得機能101は、処理する対象となる画像を取得する(ステップS201)。算出機能102−2は、取得した画像から第1の対象(上半身)を検出し、第1の対象であることの確からしさを表す尤度L1を算出する(ステップS202)。算出機能102−2は、尤度L1が閾値より大きいか否かを判断する(ステップS203)。
尤度L1が閾値より大きくない場合(ステップS203:No)、処理を終了する。尤度L1が閾値より大きい場合(ステップS203:Yes)、算出機能102−2は、取得した画像内の尤度L1が閾値より大きくなった箇所から第2の対象(顔)を検出し、顔としての確からしさを表す尤度L2を算出する(ステップS204)。
決定機能103−2は、検出した対象が隠ぺいされているか否かを判定する(ステップS205)。例えば決定機能103−2は、尤度L2が第1の閾値より大きく、かつ、第2の閾値より小さい場合に、顔が隠ぺいされていると判定する。
顔が隠ぺいされていない場合(ステップS205:No)、この顔は強調表示等せずに処理を終了する。顔が隠ぺいされている場合(ステップS205:Yes)、決定機能103−2は、尤度L1および尤度L2に応じた出力方法を決定する(ステップS206)。例えば決定機能103−2は、尤度L1の逆数と尤度L2との積が小さいほど強調して表示する出力方法を決定する。
表示制御機能104は、決定された出力方法に従い対象を表示する(ステップS207)。
このように、第2の実施形態にかかる制御装置では、複数の尤度(上半身尤度、顔尤度など)を用いて出力方法を制御する。これにより、隠ぺいされている対象をより高い精度で強調表示可能になる。
(第3の実施形態)
第3の実施形態にかかる制御装置は、まず画像内に含まれる第1の対象(人物の全身、上半身など)とその移動方向を検出し、移動方向に応じて、第1の対象の一部である第2の対象(顔など)を検出するかを切り替える。
図8は、第3の実施形態にかかる制御装置100−3の構成の一例を示すブロック図である。図8に示すように、制御装置100−3は、処理回路110−3と、撮影部120と、記憶部130と、UI部140と、を備えている。
第3の実施形態では、算出機能102−3および決定機能103−3の機能、並びに、処理回路110−3に追跡機能105−3および方向判定機能106−3が追加される点が、第2の実施形態と異なっている。その他の構成および機能は、第2の実施形態にかかる制御装置100−2のブロック図である図6と同様であるので、同一符号を付し、ここでの説明は省略する。
算出機能102−3は、画像内に含まれる第1の対象(例えば人物の上半身)を検出し、第1の対象としての確からしさを表す尤度を算出する。また、算出機能102−3は、第1の対象の一部である第2の対象(例えば人物の顔)を検出し、第2の対象が隠ぺいされているかを示す尤度を算出する。算出機能102−3は、後述する方向判定機能106−3により判定された移動方向が特定方向である場合に、第2の対象を検出する処理を実行する。
追跡機能105−3は、複数の画像(複数フレームを含む動画像など)から検出された対象(例えば人物の上半身)に基づき人物を追跡し、追跡した人物の情報(トラックレット)を生成する。トラックレットは、例えば、人物の位置を示す情報を含む。トラックレットは、例えば記憶部130に記憶されてもよい。
方向判定機能106−3は、トラックレットなどを参照して、第1の対象の移動方向を判定する。方向判定機能106−3は、方向判定部の一例である。例えば方向判定機能106−3は、トラックレットから人物の歩行方向(移動方向の一例)を算出し、映像に対して顔が見えるべき方向(特定方向の一例)に歩いているかを判定する。この場合、算出機能102−3は、顔が見えるべき方向に人物が歩行している場合に、さらにこの人物の顔を検出して顔の尤度を算出する処理を実行する。
なお移動方向の判定方法は、動画像などによる対象の追跡技術を用いた方法に限られるものではなく、画像から対象の移動方向を判定できる方法であればどのような方法であってもよい。
決定機能103−3は、尤度L1および尤度L2に応じて対象の出力方法を決定する。決定機能103−3は、複数の画像(例えば顔が検出された複数のフレーム)からそれぞれ算出された、複数の尤度を用いて出力方法を決定してもよい。例えば決定機能103−3は、複数の画像それぞれから算出された複数の尤度L1の平均、および、複数の尤度L2の平均を算出する。そして決定機能103−3は、各平均の値に応じて対象の出力方法を決定する。
次に、このように構成された第3の実施形態にかかる制御装置100−3による表示制御処理について図9を用いて説明する。図9は、第3の実施形態における表示制御処理の一例を示すフローチャートである。
ステップS301からステップS302までは、第2の実施形態にかかる制御装置100−2におけるステップS201からステップS202までと同様の処理なので、その説明を省略する。
追跡機能105−3は、検出結果を用いて人物を追跡し、トラックレットを算出する(ステップS303)。方向判定機能106−3は、トラックレットを用いて人物の歩行方向を判定する(ステップS304)。
算出機能102−3は、歩行方向が特定方向(例えば撮影部120に対して顔が見える方向)であるか否かを判定する(ステップS305)。
歩行方向が特定方向でない場合(ステップS305:No)、処理を終了する。これにより、顔が見えないにもかかわらず顔の検出処理を実行することを回避可能となる。
歩行方向が特定方向である場合(ステップS305:Yes)、算出機能102−3は、取得した画像内の尤度L1が閾値より大きくなった箇所から第2の対象(顔)を検出し、顔としての確からしさを表す尤度L2を算出する(ステップS306)。
ステップS307からステップS309までは、第2の実施形態にかかる制御装置100−2におけるステップS205からステップS207までと同様の処理なので、その説明を省略する。
次に、本実施形態の表示画面の例について説明する。図10は、本実施形態の表示画面の一例を示す図である。図10の人物1001は、撮影部120に対して顔が見える方向に歩行している。このため、歩行方向が特定方向でない(ステップS305:No)と判定され、強調表示の対象外となる。
このように、第3の実施形態にかかる制御装置では、例えば顔が見えない方向に歩いている人物(撮影部120の光軸方向と逆向きに歩いている人物)については、強調表示の対象外とすることができる。これにより、誤認識を回避し、顔を隠している人物のみを強調表示可能になる。
以上説明したとおり、第1から第3の実施形態によれば、隠ぺいされている対象をより容易に確認可能となる。
本実施形態にかかる情報処理装置で実行されるプログラムは、ROM等に予め組み込まれて提供される。
第1〜第3の実施形態にかかる制御装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1〜第3の実施形態にかかる制御装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1〜第3の実施形態にかかる制御装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1〜第3の実施形態にかかる制御装置で実行されるプログラムは、コンピュータを上述した制御装置の各部として機能させうる。このコンピュータは、CPUがコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
なお、実施形態におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、上述した実施形態における各処理を実行するためのものであって、パーソナルコンピュータまたはマイコン等の1つである装置、および、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。また、実施形態におけるコンピュータとは、パーソナルコンピュータに限らず、情報処理機器に含まれる演算処理装置およびマイコン等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100、100−2、100−3 制御装置
101 取得機能
102、102−2 算出機能
103、103−2、103−3 決定機能
104 表示制御機能
105−3 追跡機能
106−3 方向判定機能
110 処理回路
120 撮影部
130 記憶部
140 UI部
141 表示部
142 入力部

Claims (12)

  1. 画像内に含まれる対象を検出し、前記対象が隠ぺいされているかを示す尤度を算出する算出部と、
    前記尤度に応じて前記対象の出力方法を決定する決定部と、
    前記画像と決定された前記出力方法とに基づいて表示画像を生成する表示制御部と、
    を備える制御装置。
  2. 前記出力方法は、前記対象を強調表示する方法である、
    請求項1に記載の制御装置。
  3. 前記算出部は、閾値より大きく、かつ、値が小さいほど前記対象が隠ぺいされていることを示す尤度を算出し、
    前記決定部は、前記尤度が閾値より大きく、かつ、値が小さい前記対象ほど強調して表示する出力方法を決定する、
    請求項2に記載の制御装置。
  4. 前記算出部は、画像内に含まれる、隠ぺいされている対象を検出し、隠ぺいされていることの確からしさを示す尤度を算出し、
    前記決定部は、前記尤度が大きい前記対象ほど強調して表示する出力方法を決定する、
    請求項2に記載の制御装置。
  5. 前記決定部は、前記尤度に応じて、前記対象を特定する画像の表示態様を変更する出力方法を決定する、
    請求項1に記載の制御装置。
  6. 前記算出部は、画像内に含まれる第1の対象を検出し、前記第1の対象の一部である第2の対象を検出し、前記第2の対象が隠ぺいされているかを示す尤度を算出する、
    請求項1に記載の制御装置。
  7. 前記算出部は、前記第1の対象であることの確からしさを示す第1の尤度を算出し、前記第1の尤度が閾値より大きい場合に、前記第2の対象を検出し、前記第2の対象が隠ぺいされているかを示す第2の尤度を算出し、
    前記決定部は、前記第1の尤度および前記第2の尤度に応じて前記対象の出力方法を決定する、
    請求項6に記載の制御装置。
  8. 前記決定部は、前記第1の尤度の逆数および前記第2の尤度の積に応じて、前記対象の出力方法を決定する、
    請求項7に記載の制御装置。
  9. 前記第1の対象の移動方向を判定する方向判定部をさらに備え、
    前記算出部は、前記移動方向が特定方向である場合に、前記第2の対象を検出する、
    請求項6に記載の制御装置。
  10. 前記算出部は、複数の画像それぞれから、前記第1の対象を検出して前記第1の尤度を算出し、前記移動方向が特定方向である場合に前記第2の対象を検出して前記第2の対象が隠ぺいされているかを示す第2の尤度を算出し、
    前記決定部は、複数の画像それぞれから算出された、複数の前記第1の尤度の平均、および、複数の前記第2の尤度の平均に応じて前記対象の出力方法を決定する、
    請求項9に記載の制御装置。
  11. 画像内に含まれる対象を検出し、前記対象が隠ぺいされているかを示す尤度を算出する算出ステップと、
    前記尤度に応じて前記対象の出力方法を決定する決定ステップと、
    前記画像と決定された前記出力方法とに基づいて表示画像を生成する表示制御ステップと、
    を含む制御方法。
  12. コンピュータを、
    画像内に含まれる対象を検出し、前記対象が隠ぺいされているかを示す尤度を算出する算出部と、
    前記尤度に応じて前記対象の出力方法を決定する決定部と、
    前記画像と決定された前記出力方法とに基づいて表示画像を生成する表示制御部と、
    として機能させるためのプログラム。
JP2016107454A 2016-05-30 2016-05-30 制御装置、制御方法およびプログラム Active JP6629139B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016107454A JP6629139B2 (ja) 2016-05-30 2016-05-30 制御装置、制御方法およびプログラム
US15/440,520 US10235607B2 (en) 2016-05-30 2017-02-23 Control device, control method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016107454A JP6629139B2 (ja) 2016-05-30 2016-05-30 制御装置、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017215666A true JP2017215666A (ja) 2017-12-07
JP6629139B2 JP6629139B2 (ja) 2020-01-15

Family

ID=60420555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016107454A Active JP6629139B2 (ja) 2016-05-30 2016-05-30 制御装置、制御方法およびプログラム

Country Status (2)

Country Link
US (1) US10235607B2 (ja)
JP (1) JP6629139B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6725381B2 (ja) * 2016-09-20 2020-07-15 株式会社東芝 画像照合装置および画像照合方法
WO2019152472A1 (en) 2018-01-30 2019-08-08 Madden Donald Face concealment detection
JP7119985B2 (ja) * 2018-12-21 2022-08-17 トヨタ自動車株式会社 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム
WO2021011569A1 (en) * 2019-07-15 2021-01-21 David James Hutz Notifications for camera tampering
JP7354686B2 (ja) * 2019-08-27 2023-10-03 株式会社リコー 出力制御装置、表示制御システム、出力制御方法およびプログラム
US11670069B2 (en) * 2020-02-06 2023-06-06 ID R&D, Inc. System and method for face spoofing attack detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003117A (ja) * 2008-06-20 2010-01-07 Toyota Central R&D Labs Inc 対象物判定装置及びプログラム
JP2011130203A (ja) * 2009-12-17 2011-06-30 Canon Inc 映像情報処理方法及びその装置
JP2012212217A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2013196034A (ja) * 2012-03-15 2013-09-30 Toshiba Corp 人物画像処理装置、及び人物画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3088880B2 (ja) 1993-09-07 2000-09-18 シャープ株式会社 人物認識装置
JP3461190B2 (ja) 1993-12-07 2003-10-27 株式会社東芝 画像監視装置
JP3726972B2 (ja) 1996-05-28 2005-12-14 ソニー株式会社 被写体認識装置および方法
US7064769B2 (en) 2003-09-30 2006-06-20 Sharp Laboratories Of America, Inc. Systems and methods for computing the presence of self-luminous elements in an image
JP4418829B2 (ja) 2006-09-28 2010-02-24 シャープ株式会社 色補正方法および画像処理装置
US8064712B2 (en) * 2007-01-24 2011-11-22 Utc Fire & Security Americas Corporation, Inc. System and method for reconstructing restored facial images from video
US8139817B2 (en) * 2007-04-27 2012-03-20 Telewatch Inc. Face image log creation
JP5213620B2 (ja) 2008-10-01 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法
JP5361524B2 (ja) * 2009-05-11 2013-12-04 キヤノン株式会社 パターン認識システム及びパターン認識方法
JP5693162B2 (ja) 2010-11-09 2015-04-01 キヤノン株式会社 画像処理システム、撮像装置、画像処理装置及びそれらの制御方法、プログラム
JP5752976B2 (ja) 2011-03-30 2015-07-22 セコム株式会社 画像監視装置
JP5851108B2 (ja) 2011-03-30 2016-02-03 セコム株式会社 画像監視装置
JP5895720B2 (ja) * 2012-06-06 2016-03-30 富士通株式会社 被写体追跡装置、被写体追跡方法及び被写体追跡用コンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003117A (ja) * 2008-06-20 2010-01-07 Toyota Central R&D Labs Inc 対象物判定装置及びプログラム
JP2011130203A (ja) * 2009-12-17 2011-06-30 Canon Inc 映像情報処理方法及びその装置
JP2012212217A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2013196034A (ja) * 2012-03-15 2013-09-30 Toshiba Corp 人物画像処理装置、及び人物画像処理方法

Also Published As

Publication number Publication date
US20170344858A1 (en) 2017-11-30
JP6629139B2 (ja) 2020-01-15
US10235607B2 (en) 2019-03-19

Similar Documents

Publication Publication Date Title
JP6629139B2 (ja) 制御装置、制御方法およびプログラム
US11281288B2 (en) Eye and head tracking
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US11561322B2 (en) Use of thermopiles to detect human location
JP5567853B2 (ja) 画像認識装置および方法
JP6597609B2 (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
CN110895861B (zh) 异常行为预警方法、装置、监控设备和存储介质
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
US20180285656A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
US10600189B1 (en) Optical flow techniques for event cameras
US11004214B2 (en) Image processing apparatus, image processing method, and storage medium
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016106668A (ja) 情報処理装置、情報処理方法、およびプログラム
JP5956248B2 (ja) 画像監視装置
JP2013232181A5 (ja)
KR20160058449A (ko) 이벤트에 기반하여 객체의 이동을 감지하는 장치 및 방법
JPWO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JPWO2014175356A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2017076181A (ja) 追跡装置
JP2010199865A (ja) 異常検知システム、異常検知方法及び異常検知プログラム
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
KR101414362B1 (ko) 영상인지 기반 공간 베젤 인터페이스 방법 및 장치
KR101288248B1 (ko) 프라이버시 마스킹용 휴먼 추적 시스템 및 방법
US11809621B2 (en) State estimation device, method and computer program therefor
KR101292907B1 (ko) 프라이버시 마스킹용 휴먼 추적 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191204

R151 Written notification of patent or utility model registration

Ref document number: 6629139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151