JP7248040B2 - 監視装置、監視方法、およびプログラム - Google Patents

監視装置、監視方法、およびプログラム Download PDF

Info

Publication number
JP7248040B2
JP7248040B2 JP2020565154A JP2020565154A JP7248040B2 JP 7248040 B2 JP7248040 B2 JP 7248040B2 JP 2020565154 A JP2020565154 A JP 2020565154A JP 2020565154 A JP2020565154 A JP 2020565154A JP 7248040 B2 JP7248040 B2 JP 7248040B2
Authority
JP
Japan
Prior art keywords
area
person
monitoring
caution
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020565154A
Other languages
English (en)
Other versions
JPWO2020145255A1 (ja
Inventor
雄太 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020145255A1 publication Critical patent/JPWO2020145255A1/ja
Application granted granted Critical
Publication of JP7248040B2 publication Critical patent/JP7248040B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視装置、監視方法、および記録媒体に関し、例えば、監視カメラにより撮影された映像を解析して、警備員または他の人物による監視エリア内の監視をサポートする監視装置に関する。
監視エリアを警備員が監視する場合に、例えば、監視カメラが監視エリアを撮影した映像を警備員がモニタリングする監視と、警備員が監視エリア内を巡回することによって行う監視とが併用される。
図13は、特許文献1に記載された、監視システム1000を説明する図である。図13に示すように、特許文献1に記載の監視システム1000は、監視カメラの視野内に障害物による死角が生じているとき、その死角に人物が進入したことを検出し、その旨を報知する。これにより、監視システム1000を利用する、例えば警備員は、監視カメラにより撮影された映像内の死角にいる不審人物を発見できる。
国際公開第2016/147704号 特開2011-048736号公報 特開2009-251761号公報 国際公開第2010/131331号
警備員の視線や顔の向きによって、警備員の死角が変化し、これに伴って、警備員の視野から外れた領域が生じ得る。特許文献1に記載の先行技術では、警備員の視野が考慮されず、したがって警備員の視野から外れた死角を検出することができないから、警備員の死角にいる不審人物または、警備員の死角で発生した不審行動を見逃す可能性がある。
特許文献2から4には、監視システムに関して、警備員の視野から外れた領域を提示することは開示されていない。
本発明は、監視の行き届かない領域を提示することを主要な目的とする。
上記の課題を解決するために、本発明の一態様に係わる監視装置は、画像から人物を検出する検出手段と、検出した前記人物が視認した領域を推定する推定手段と、推定した前記領域に基づいて、監視エリア内の要注意領域を判定する判定手段と、判定された前記要注意領域を示す情報を提示する提示手段とを備えている。
上記の課題を解決するために、本発明の一態様に係わる監視方法は、画像から人物を検出し、検出した前記人物が視認した領域を推定し、推定した前記領域に基づいて、監視エリア内の要注意領域を判定し、判定された前記要注意領域を示す情報を提示することを含む。
上記の課題を解決するために、本発明の一態様に係わる記録媒体は、画像から人物を検出することと、検出した前記人物が視認した領域を推定することと、推定した前記領域に基づいて、監視エリア内の要注意領域を判定することと、判定された前記要注意領域を示す情報を提示することと、をコンピュータに実行させるプログラムが格納される。
本発明の一態様によれば、監視の行き届かない領域を提示することができる。
実施形態1に係わる監視システムの構成の一例を示すブロック図である。 実施形態1に係わる監視システムが備える画像処理装置の構成の一例を示すブロック図である。 実施形態1に係わる画像処理装置が実行する処理の流れを示すフローチャートである。 人物の視線を判定する方法の一例を説明する図である。 死角領域の一例を説明する図である。 死角領域の別の一例を説明する図である。 死角領域のさらに別の一例を説明する図である。 死角領域の提示の一例を説明する図である。 死角領域の提示の一例を説明する図である。 死角領域の提示の一例を説明する図である。 死角領域の提示の一例を説明する図である。 死角領域の提示の一例を説明する図である。 実施形態1に係わる監視システムの監視モニタの一例を示す図である。 実施形態2に係わる、小型カメラを備えたアイウェア型の装置の一例を示す図である。 実施形態2に係わる、小型カメラを備えたキャップ型の装置の一例を示す図である。 実施形態に係わる監視装置の構成の一例を示すブロック図である。 実施形態に係わる装置のハードウェア構成を示す図である。 関連技術を説明する図である。
(実施形態1)
図1から図9を参照して、本発明の実施形態1について以下に説明する。
(監視システム1)
図1は、本実施形態1に係わる監視システム1の構成を示すブロック図である。監視システム1は、例えばイベント会場、遊技場、行楽地、または公共の場所の監視のために使用される。図1に示すように、監視システム1は、監視カメラ10と、画像処理装置20と、(警備員用の)無線端末30と、監視モニタ40とを含む。画像処理装置20は、監視装置の一例である。
監視カメラ10は、1台又は複数台であってよい。監視カメラ10の向きは、固定されていてもよいし、可動であってもよい。監視カメラ10は、監視対象である空間(監視エリアと呼ぶ)を撮影する。本実施形態に係わる監視カメラ10は、動画を撮影可能である。監視カメラ10は、撮影した映像(動画を含む)のデータを、画像処理装置20および監視モニタ40へ送信する。
画像処理装置20は、監視カメラ10が撮影した映像を解析して、解析結果を監視モニタ40に出力する。具体的には、画像処理装置20は、後述するフローにしたがって、人物の視野から外れた監視エリア内の領域(以下、死角領域と呼ぶ)を推定する。死角領域は、要注意領域の一例であって、人物が視認していない領域に含まれる。ここでの視野とは、人物が視認可能な領域を示す。
画像処理装置20は、死角領域を示す情報を、無線または有線で、監視モニタ40に送信する。また画像処理装置20は、死角領域内に入った人物または放置された物体を検知する機能を備え、そのような人物または物体を検知したとき、無線通信によって、その検知に係る情報を無線端末30に報知する。なお、画像処理装置20が実行する処理の詳細な説明は後述する。
無線端末30は無線通信機能を備えており、画像処理装置20と無線通信を行うことができる。無線端末30は、例えばトランシーバであってもよい。無線端末30は、警備員により所持または装着される。警備員は、撮像装置をさらに所持または装着していてもよい。あるいは、無線端末30が撮像部を備えていてもよい。この場合、撮像装置または撮像部が撮影した映像のデータは、無線通信によって、画像処理装置20を介して、監視モニタ40へ送信される。
監視モニタ40は、監視カメラ10と常時接続しており、監視カメラ10が撮影した映像をリアルタイムで表示する。また監視モニタ40は、警備員が所持または装着した撮像装置が撮影した映像も表示する。通常、警備員に対する指令を行う人物(指令者と呼ぶ)が、監視モニタ40に表示される監視エリアの映像を注視している。
(画像処理装置20)
図2は、画像処理装置20の構成を示すブロック図である。図2に示すように、画像処理装置20は、機能部として、人物検出部21、視線判定部22、視野推定部23、死角領域判定部24、および提示部28を備えている。さらに、提示部28は、報知部25と表示制御部26とを備える。人物検出部21は、検出手段の一例である。視野推定部23は、推定手段の一例である。死角領域判定部24は、判定手段の一例である。提示部28は、提示手段の一例である。
以下で、画像処理装置20が実行する処理(以下では死角領域判定処理と呼ぶ)の一例を説明する。それとともに、図2に示す画像処理装置20の各機能部が、それぞれ実行する動作例も説明する。
(死角領域判定処理)
図3を参照して、画像処理装置20の各機能部の動作とともに、画像処理装置20が実行する死角領域判定処理の流れを説明する。図3は、死角領域判定処理の流れを示すフローチャートである。
図3に示すように、画像処理装置20の人物検出部21は、監視カメラ10が撮影した映像(ここでは動画とする)のデータを取得する(S1)。
そして人物検出部21は、取得した映像を構成する複数の画像(フレーム画像)から、人物の領域を検出し、さらに、画像中の人物の領域から、人物の顔の領域を検出する(S2)。
視線判定部22は、人物検出部21が画像から抽出した人物の顔の領域から、例えば、人物の瞳を検出する。加えて、視線判定部22は、人物検出部21が検出した人物の顔の向きも判定する。視線判定部22は、人物の顔の向きと、目の中における瞳の位置とから、視線の向きを計算する(S3)。
図4は、人物の視線を判定する方法の一例を示す。本実施形態において、視線判定部22は、監視カメラ10により撮影された人物を含む撮影画像において、人物検出部21が検出した人物の顔の画像領域から、人物の目の領域を抽出する。そして、視線判定部22は、アイトラッキング技術を用いて、人物の視線を判定する。ここで利用するアイトラッキング技術は限定されず、その説明を省略する。なお、視線判定部22は、監視カメラ10とは異なる第2のカメラが撮影した人物の画像を用いて、人物の視線の向きを判定することもできる(実施形態2参照)。
視野推定部23は、視線判定部22が判定した人物の視線および顔の向きから、人物の視野を推定する(S4)。より詳細には、視野推定部23は、人物の視線、顔の向き、および予め与えられる人物の視野を表す角度情報に基づいて、人物検出部21により検出された人物の視野を推定する。視野とは人物が目で見える範囲を表す。
本実施形態では、画像処理装置20が予め記憶している人物の視野を表す角度情報(以下、視野角度情報と呼ぶ)は、一般的な人物の視野の角度情報(例えば水平方向に約180度、上下方向に約60度)である。
死角領域判定部24は、監視エリア内において、視野推定部23が推定した人物の視野から外れた領域を判定する(S5)。このとき、死角領域判定部24が判定した領域を、死角領域と称する。なお、死角領域は、人物の視野から外れた領域だけに限定されない。死角領域のいくつかの例を後で説明する。
表示制御部26は、死角領域判定部24が判定した死角領域を示す情報を、監視モニタ40に表示する(S6)。なお死角領域の提示の一例を後で示す。画像処理装置20の報知部25は、監視エリア内に死角領域があることを、警備員が所持または装着した無線端末30に通知し、無線端末30に報知してもよい。以上で、死角領域判定処理は終了する。
以上のように、画像処理装置20は、監視カメラ10から取得した画像を解析することによって、死角領域を判定し、死角領域の情報を監視モニタ40に表示する。監視モニタ40を見ている人物、例えば指令者は、死角領域内に不審人物や不審物がないかどうか、監視モニタ40を注視して確認したり、警備員に対して、死角領域を確認するように指示したりすることができる。これにより、死角領域内における事件や事故を抑制する効果があると考えられる。
(死角領域判定処理の変形例1)
一変形例では、図3におけるステップS2(人物の顔の検出)において、人物検出部21は、監視カメラ10が撮影した画像を用いて、任意の人物ではなく、特定の人物(警備員)の顔を認識する。警備員は、監視エリア内を巡回して、事件または事故などの事案が発生していないかどうかを確認する人物である。
本変形例では、人物検出部21は、画像処理装置20が記憶する警備員の顔画像と、監視カメラ10が撮影した画像から検出した人物の顔とを照合する。照合に失敗した場合、すなわち人物検出部21が画像から検出した人物が警備員ではない場合、人物検出部21は、図3におけるステップS2の処理を繰り返す。
一方、照合に成功した場合、死角領域判定処理は、図3におけるステップS3へ進む。本変形例におけるステップS3以降のフローは、図3に示すとおりである。すなわち、警備員の死角領域を判定して、判定した死角領域を監視モニタ40に表示する。
本変形例の構成によれば、警備員の死角領域が監視モニタ40に表示される。したがって、監視モニタ40を注視する指令者は、警備員による監視の行き届かない領域を簡単に知ることができる。そして、指令者は、警備員に対し、適切な指令を行うことができる。
(死角領域判定処理の変形例2)
別の変形例では、図3におけるステップS5(死角領域の判定)の後、死角領域判定部24が、所定時間を越えて人物(例えば警備員)の視野に入らない領域が存在すると判定した場合、死角領域判定部24は、報知部25に対し、報知を指示する。死角領域判定部24からの指示を受けた報知部25は、警備員が所持する無線端末30に対し、警報を行う。これにより、警備員は、視認すべき領域があることを知ることができる。
(死角領域判定処理の変形例3)
さらに別の変形例では、図3におけるステップS4(人物の視野の推定)において、視野推定部23は、人物検出部21が検出した人物が頭部または肩に所持または装着した、図示しないジャイロセンサなどの慣性センサまたは方位センサを用いて、人物の顔の向きを検出してもよい。例えば、予め基準となる方向を定めておき、慣性センサにより取得された値と、基準となる方向の情報とに基づいて、人物の顔が基準の方向から動いた方向を算出することにより、人物の顔の向きを検出してもよい。この場合、視野推定部23は、視線の向きは顔の正面であると推定する。視野推定部23は、こうして推定した視線の向き、および一般的な人間の視野角度情報に基づいて、人物の視野を推定する。
本変形例では、視線判定部22は、人物の視線の向きを判定する必要がない。
(死角領域判定処理の変形例4)
さらに別の変形例では、図3におけるステップS4(人物の視野の推定)において、視野推定部23は、人物検出部21が検出した人物の動線に基づいて、人物が視認した領域を推定する。
本変形例では、人物検出部21は、追跡部29を含む。すなわち、人物検出部21は、追跡部29の機能によって、図3におけるステップS2において、人物の画像領域を検出し、検出した画像領域内の人物を追跡する。追跡部29は、追跡手段の一例である。そして、人物検出部21は、人物の追跡結果(動線情報を含む)を、視野推定部23へ送出する。視野推定部23は、人物の位置付近の所定の領域を、その人物の視野と推定する。
本変形例では、人物が移動するにしたがって、その人物の視野も移動する。
本変形例でも、図3におけるステップS3(人物の視線の判定)は省略される。すなわち、本変形例では、視線判定部22は、人物の視線や顔の向きを判定する必要がない。
(死角領域の例)
上述した死角領域の例を、以下にいくつか挙げて説明する。
(死角領域の具体例1)
図5は、死角領域の一例を示す図である。人物は、人物の視線の向きを中心として、左右の両側に、それぞれ約50度までの領域を視認できる。人物が視認可能な領域を、人物の視野と呼ぶ。図5に示す例では、監視エリア内において、人物の前方に広がる領域V(図5におけるハッチングされていない領域)が、人物の視野を表している。図5において、ハッチングで示した領域Dが、本例での死角領域である。また、人物を囲む矩形の枠線Aが、監視エリアを表している。すなわち、監視エリア内において、人物の視野から外れた領域(図5のハッチング領域)が、本例での死角領域である。
(死角領域の具体例2)
図6は、死角領域の別の例を示す図である。図6に示す例では、図5に示す例と同様に、人物を囲む矩形の枠線Aが、監視エリアを表している。そして、図6における、人物の視野から外れた領域Dが第1の死角領域であり、ハッチングされていない領域Vが人物の視野である。加えて、図6に示す例では、障害物によって人物の視線が遮られることにより、人物から不可視になっている領域Dが、第2の死角領域である。第1の死角領域Dおよび第2の死角領域Dも、要注意領域の一例であって、人物が視認していない領域に含まれる。
画像処理装置20の死角領域判定部24は、例えば、監視カメラ10が撮影した映像から、監視エリア内または人物の視野内にある物体、すなわち障害物を検出する。そして、死角領域判定部24は、障害物によって人物の視線から遮蔽されている領域を、図6に示す第2の死角領域Dとして判定する。
(死角領域の具体例3)
図7は、死角領域のさらに別の例を示す図である。図7に示す例では、一点鎖線で囲まれる領域Vは、人物の視野を表し、二点鎖線で囲まれる領域Vは、監視カメラ10の視野を表す。人物の視野外であって、かつ監視カメラ10の視野外でもある領域Dが死角領域である。換言すれば、人物からも、監視モニタ40を注視する指令者等(図9参照)からも視認できない領域が、本例での死角領域である。
本例において、画像処理装置20の死角領域判定部24は、例えば、監視カメラ10の設置態様に応じて定まる監視カメラ10の向きの情報が、監視カメラ10に予め与えられており、その情報を監視カメラ10から取得して、取得した情報に基づいて、監視カメラ10の視野を判定する。そして、死角領域判定部24は、人物の視野から外れた領域であって、かつ監視エリアを撮影する監視カメラ10の視野からも外れた領域を、死角領域として判定する。
(死角領域の提示の具体例1)
図8Aから図8Eを参照して、表示制御部26による死角領域の提示の具体例を説明する。図8Aから図8Eは、表示制御部26が表示装置の画面に表示させる監視エリアのマップを示している。表示装置は、監視モニタ40であってもよいし、図示しない別の表示装置であってもよい。例えば、監視エリア内を巡回する人物(警備員)が所持する表示デバイスに、図8Aから図8Eに示される画面が表示される。
本例では、人物が監視エリア内で移動することによって、死角領域が変化してゆく。このとき、人物の視野に入った領域は、その後に人物の視野から外れても、所定の時間内であれば死角領域として提示されない。図8Aから図8Eは、この順に時系列で並んでいる。図8Aから図8Eでは、死角領域をハッチングによって示している。また、障害物を塗りつぶされた領域で示している。なお、図8Aから図8Eにおける人物の視野と障害物と死角領域との関係は一例である。本例で示す人物の視野は一例であり、これに限らない。
図8Aでは、人物が監視エリアの図面左下にいる。図8A中の矢印は、人物の視線を表す。人物は、監視エリアの図面左上側を見ている。このときの死角領域は、監視エリアの図面左側を除いたハッチングされた領域Dである。
図8Bでは、人物が監視エリアの図面左下に留まっている。図8B中の矢印は、図面右側を向いている。すなわち、人物は、監視エリアの図面右下を見ている。このときの死角領域は、監視エリアの中央部および図面右上のハッチングされた領域Dである。
図8Cでは、人物が監視エリアの中央部の図面上側に移動している。図8Cに矢印で示すように、人物は、監視エリアの図面右上を見ている。このときの死角領域は、監視エリアの中央部および図面右側のハッチングされた領域Dである。
図8Dでは、人物が視線を監視エリアの中央部の図面下側に向けている。このときの死角領域は、監視エリアの図面右側のハッチングされた領域Dである。
図8Eでは、人物が監視エリアの図面右上を通って、監視エリアの図面右下に移動している。死角領域は残っていない。
本例において、画像処理装置20の人物検出部21は、人物を追跡する。所定時間ごと、あるいは視線の向きが変わるごとに、視線判定部22は、追跡されている人物のリアルタイムの視線の向きを計算する。視野推定部23は、視線判定部22が人物の視線の向きを計算するたびに、追跡されている人物の視野を推定する。
死角領域判定部24は、視野推定部23が推定した人物の視野に基づいて、人物の追跡開始時点以降の所定の時間内で、追跡されている人物が視認していない領域を判定する。死角領域判定部24は、判定した、実空間における、追跡されている人物が視認していない領域を、監視エリアのマップ内での領域の死角領域として変換する。
表示制御部26は、死角領域判定部24が監視エリアのマップ内での領域に変換した死角領域の情報に基づいて、例えば、図8Aから図8Eに示す画面を生成して、人物が所持する表示デバイスに表示させる。これにより、人物は、表示デバイスに表示された図8Aから図8Eの画面を確認することによって、自分がまだ視認していないエリア、すなわち死角領域を簡単に把握することができる。
(死角領域の提示の具体例2)
図9は、本実施形態に係わる監視モニタ40の一例を示す図である。図9に示すように、本実施形態に係わる監視モニタ40は、例えば、複数の表示部で構成されている。また、複数の監視カメラ10が監視エリアを互いに異なる方向から撮影している。監視モニタ40のそれぞれの表示部は、互いに異なる監視カメラ10から受信する映像をリアルタイムで同時に表示している。しかしながら、監視モニタ40は、ただ一つの表示部を備えていてもよい。この場合、監視モニタ40は、複数の監視カメラ10から受信する映像を順番に表示してもよい。本例では、監視モニタ40には、複数の表示部により監視エリアの全体が表示されているとする。
上述した具体例1で説明したように、死角領域判定部24は、視野推定部23が推定した人物の視野に基づいて、まだ人物の視野に入っていない領域を死角領域として判定する。死角領域判定部24は、判定した実空間での死角領域を、画面表示されている監視エリアのマップ内での死角領域に変換する。
死角領域判定部24は、表示部と当該表示部により表示される監視エリアのマップ内の部分領域との関係に基づいて監視エリアのマップ内での死角領域と対応する表示部を特定する。換言すれば、死角領域判定部24は、監視モニタ40が表示している画像全体のうちで、死角領域を映している画像領域を特定する。
表示制御部26は、死角領域判定部24が特定した死角領域を映している画像領域を、他の画像領域よりも目立つ様態でまたは強調させて、監視モニタ40に表示させる。図9では、死角領域を映している画像領域が、発光または点滅によって、強調されている。
指令者は、監視モニタ40を見ることによって、監視エリア内で死角領域が発生していることに容易に気付くことができる。指令者は、図示しない通信装置を用いて、警備員の無線端末30と連絡を取り、死角領域をすぐに確認するように、監視エリア内またはその近傍にいる警備員に対して、指示することができる。
〔実施形態2〕
本発明の別の実施形態について、以下で説明する。
本実施形態2では、プールまたは遊泳場など、監視員によって常時監視されている状況で、監視システムが使用される場合について説明する。本実施形態2に係わる監視システムの基本的な構成は、図1に示す前記実施形態1に係わる監視システム1と同じである。
(実施形態2の監視システム1)
本実施形態2では、プールまたは遊泳場の監視員が、無線通信機能を備えたキャップ型またはアイウェア型の装置50a、50b(図10A,図10B参照)を装着している。
図10Aおよび図10Bに示すように、キャップ型またはアイウェア型の装置50a、50bは、小型カメラ51を備えている。小型カメラ51は、キャップ型またはアイウェア型の装置50a、50bを装着した監視員の顔に向いている。画像処理装置20の視線判定部22(図2参照)は、装置50a、50bから、監視員の目およびその周辺を撮影した画像を取得する。そして、視線判定部22は、アイトラッキング技術を用いて、監視員の視線を判定する。
視野推定部23は、前記実施形態1と同様に、監視員の視線に基づいて、監視員の視野を推定する。死角領域判定部24も、前記実施形態1と同様に、監視員の視野に基づいて、監視員の視野から外れた死角領域を判定する。死角領域判定部24は、判定した死角領域の情報を、報知部25へ送出する。
報知部25は、監視カメラ10が撮影した映像から、遊泳者を検出する。そして、報知部25は、死角領域判定部24が判定した死角領域内に遊泳者がいる場合に、監視員に対して警報する。
(実施形態2の効果)
本実施形態に構成によれば、死角領域内にいる遊泳者を監視員に気付かせることができるので、プールまたは遊泳場において水難事故が発生する可能性を低減することができる。
(前記実施形態1への適用例)
本実施形態2で説明した人物の視線の判定方法を、前記実施形態1に適用することが可能である。すなわち、図3に示す死角領域判定処理のステップS3(人物の視線の判定)において、視線判定部22は、監視カメラ10が撮影した画像の代わりに、人物が装着したキャップ型やアイウェア型の装置50a、50bに取り付けられた小型カメラ51が撮影した画像を用いて、その人物の視線を判定してもよい。
〔実施形態3〕
本発明の別の実施形態について、以下で説明する。
本実施形態3では、監視システムが小売店で使用される場合について説明する。本実施形態3に係わる監視システムの基本的な構成は、図1に示す前記実施形態1に係わる監視システム1と同じである。
本実施形態3では、画像処理装置20の人物検出部21は、監視エリアである店内にいる店員を検出する。視野推定部23は、店内の部分領域あたりの店員の人数の密度(以下、店員の密度と称する)を計算して、店員の密度が閾値よりも高い領域を、店員に視認されたと推定する。死角領域判定部24(図2参照)は、店内において、店員の密度が閾値よりも低い領域を、死角領域として判定する。なお、閾値はどのように決められてもよい。本実施形態3では、視線判定部22は、人物検出部21が検出した店員の視線の判定を行わなくてもよい。
人物検出部21は、予め与えられている店員の情報を利用して、死角領域判定部24が判定した死角領域内で、客(あるいは店員を除く人物)を検出する。報知部25は、人物検出部21が死角領域内で客を検出したことをトリガーとして、アナウンスや無線通信等によって、店員等に対して警報する。
上述のように、本実施形態3では、店員の密度に基づいて、店員に視認された領域が推定される。店員の密度が(閾値よりも)高い領域では、少なくとも一人の店員が客の存在に気付くであろうと推定される。一方、店員の密度が(閾値よりも)低い領域では、店員のだれも客の存在に気付かない可能性がある。その結果、客に対して、いつまでも接客サービスが行われないという事態が生じ得る。しかし、本実施形態3では、店員の密度が閾値よりも低い領域内に、報知部25が店員に対して警報するので、そのような事態が発生することを防止し、また売り上げの機会を損失することを防止することができる。
(実施形態3の効果)
本実施形態の構成によれば、死角領域内にいる客を店員に気づかせることができる。さらに、客が万引き行為を試みることを抑止する効果もある。
〔実施形態4〕
本発明の別の実施形態について、以下で説明する。
(監視装置220)
図11は、本実施形態4に係わる監視装置220の構成を示すブロック図である。図11に示すように、監視装置220は、検出部221、推定部222、判定部223、および提示部224を備えている。
検出部221は、例えば、監視カメラが撮影した監視エリア内の画像を取得する。検出部221は、取得した画像から人物を検出する。
推定部222は、検出部221が検出した人物が視認した領域を推定する。人物が視認した領域とは、人物の視野に含まれる領域のことである。推定部222は、例えば、周知の視線検出技術を用いて、画像中の人物の視線を検出する。そして、推定部222は、検出した人物の視線の向きと、人間の一般的な視野の角度情報とを用いて、人物の視野を計算する。推定部222は、計算した人物の視野に含まれる領域を、人物が視認した領域として推定する。
判定部223は、推定部222が推定した領域に基づいて、監視エリア内の要注意領域を判定する。要注意領域とは、例えば前記実施形態1から3で説明した死角領域である。
提示部224は、判定部223によって判定された要注意領域を示す情報を提示する。提示の手段は特に限定されない。例えば、提示部224は、表示装置に、要注意領域を示したマップを表示する。あるいは、提示部224は、警告灯またはスピーカを用いて、要注意領域の存在を報知する。
(実施形態4の効果)
本実施形態の構成によれば、人物が視認した領域を推定し、監視エリア内の要注意領域を判定する。例えば、監視エリアにおいて、人物が視認していない領域を、要注意領域であると判定する。そして、判定された要注意領域を示す情報を提示する。これにより、監視の行き届かない領域、すなわち要注意領域を、指令者や警備員等の人物に対して提示することができる。
〔実施形態5〕
本発明の別の実施形態について、以下で説明する。
(ハードウェア構成について)
本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図12に示すような装置900とプログラムとの任意の組み合わせにより実現される。図12は、各装置の各構成要素を実現する装置900のハードウェア構成の一例を示すブロック図である。
図12に示すように、装置900は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
各実施形態における各装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。各装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
(実施形態5の効果)
本実施形態の構成によれば、前記のいずれかの実施形態において説明した装置が、ハードウェアとして実現される。したがって、前記のいずれかの実施形態において説明した効果と同様の効果を奏することができる。
以上、実施形態(及び実施例)を参照して本発明を説明したが、本発明は上記実施形態(及び実施例)に限定されるものではない。上記実施形態(及び実施例)の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
〔付記〕
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
(付記1)
画像から人物を検出する検出手段と、
検出した前記人物が視認した領域を推定する推定手段と、
推定した前記領域に基づいて、監視エリア内の要注意領域を判定する判定手段と、
判定された前記要注意領域を示す情報を提示する提示手段と
を備えた監視装置。
(付記2)
前記検出手段は、前記監視エリアを撮影する監視カメラから、前記画像を取得する
ことを特徴とする付記1に記載の監視装置。
(付記3)
前記検出手段は、前記画像から特定の人物を検出し、
前記推定手段は、前記特定の人物が所持または装着したセンサを用いて、前記特定の人物が視認した領域を推定する
ことを特徴とする付記1または2に記載の監視装置。
(付記4)
前記検出手段は、前記人物以外の物体をさらに検出し、
前記推定手段は、検出された前記物体によって前記人物の視線から遮蔽された前記監視エリア内の領域を、前記人物が視認していないと判定する
ことを特徴とする付記1から3のいずれか1つに記載の監視装置。
(付記5)
前記判定手段は、前記人物の視野から外れた領域であって、かつ前記監視エリアを撮影する監視カメラの視野からも外れた領域を、前記要注意領域として判定する
ことを特徴とする付記1から4のいずれか1つに記載の監視装置。
(付記6)
前記検出手段は、前記人物を追跡する追跡手段を含み、
前記推定手段は、前記追跡手段による前記人物の追跡結果に基づいて、前記人物が視認した領域を推定する
ことを特徴とする付記1から5のいずれか1つに記載の監視装置。
(付記7)
前記検出手段が検出した前記人物の視線を判定する視線判定手段をさらに備え、
前記推定手段は、判定された前記人物の視線に基づいて、前記人物の視野を推定する
ことを特徴とする付記1から6のいずれか1つに記載の監視装置。
(付記8)
前記視線判定手段は、前記検出手段が前記人物を検出した画像を用いて、前記人物の視線を判定する
ことを特徴とする付記7に記載の監視装置。
(付記9)
前記検出手段は、前記画像から特定の人物を検出し、
前記視線判定手段は、前記特定の人物が所持または装着した装置が撮影した画像を用いて、前記特定の人物の視線を判定する
ことを特徴とする付記7に記載の監視装置。
(付記10)
前記検出手段は、前記画像から特定の人物を検出し、
前記監視エリア内に前記要注意領域があることを、前記検出手段が検出した前記特定の人物に対して報知する報知手段をさらに備えた
ことを特徴とする付記1から9のいずれか1つに記載の監視装置。
(付記11)
前記提示手段は、前記要注意領域を、前記監視エリアの他の領域とは異なる様態で、表示装置に表示させる
ことを特徴とする付記1から10のいずれか1つに記載の監視装置。
(付記12)
画像から人物を検出し、
検出した前記人物が視認した領域を推定し、
推定した前記領域に基づいて、監視エリア内の要注意領域を判定し、
判定された前記要注意領域を示す情報を提示する
ことを含む監視方法。
(付記13)
画像から人物を検出することと、
検出した前記人物が視認した領域を推定することと、
推定した前記領域に基づいて、監視エリア内の要注意領域を判定することと、
判定された前記要注意領域を示す情報を提示することと、をコンピュータに実行させるためのプログラム。
この出願は、2019年1月11日に出願された日本出願特願2019-003514を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 監視システム
10 監視カメラ
20 画像処理装置
21 人物検出部
22 視線判定部
23 視野推定部
24 死角領域判定部
25 報知部
26 表示制御部
28 提示部
29 追跡部
30 無線端末
40 監視モニタ
220 監視装置
221 検出部
222 推定部
223 判定部
224 提示部

Claims (4)

  1. 画像から人物を検出する検出手段と、
    監視エリア内の部分領域あたりの前記人物の密度に基づいて、当該密度が閾値よりも高い領域を、前記人物が視認した領域として推定する推定手段と、
    前記監視エリア内の、推定された前記領域と異なる領域を要注意領域として判定する判定手段と、
    判定された前記要注意領域を示す情報を提示する提示手段と
    を備え、
    前記検出手段は、前記画像から前記人物と異なる人物を検出し、
    前記提示手段は、前記要注意領域において前記異なる人物が検出された場合、前記要注意領域を示す情報を提示する、
    監視装置。
  2. 前記検出手段は、前記監視エリアを撮影する監視カメラから、前記画像を取得する
    ことを特徴とする請求項1に記載の監視装置。
  3. 画像から人物を検出し、
    監視エリア内の部分領域あたりの前記人物の密度に基づいて、当該密度が閾値よりも高い領域を、前記人物が視認した領域として推定し、
    前記監視エリア内の、推定された前記領域と異なる領域を要注意領域として判定し、
    前記画像から前記人物と異なる人物を検出し、
    判定された前記要注意領域を示す情報を提示し、
    前記要注意領域において前記異なる人物が検出された場合、前記提示するステップにおいて、前記要注意領域を示す情報を提示する、
    ことを含む監視方法。
  4. 画像から人物を検出することと、
    監視エリア内の部分領域あたりの前記人物の密度に基づいて、当該密度が閾値よりも高い領域を、前記人物が視認した領域として推定することと、
    前記推定した前記領域に基づいて、監視エリア内の要注意領域を判定することと、
    判定された前記要注意領域を示す情報を提示することと、をコンピュータに実行させ、
    前記検出する処理において、前記画像から前記人物と異なる人物を検出し、
    前記要注意領域において前記異なる人物が検出された場合、前記提示する処理において、前記要注意領域を示す情報を提示する、
    プログラム。
JP2020565154A 2019-01-11 2020-01-07 監視装置、監視方法、およびプログラム Active JP7248040B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019003514 2019-01-11
JP2019003514 2019-01-11
PCT/JP2020/000133 WO2020145255A1 (ja) 2019-01-11 2020-01-07 監視装置、監視方法、および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2020145255A1 JPWO2020145255A1 (ja) 2021-11-04
JP7248040B2 true JP7248040B2 (ja) 2023-03-29

Family

ID=71521631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565154A Active JP7248040B2 (ja) 2019-01-11 2020-01-07 監視装置、監視方法、およびプログラム

Country Status (3)

Country Link
US (4) US11804045B2 (ja)
JP (1) JP7248040B2 (ja)
WO (1) WO2020145255A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226351A (ja) 2006-02-21 2007-09-06 Sogo Keibi Hosho Co Ltd 監視システム及び監視方法
JP2008040758A (ja) 2006-08-04 2008-02-21 Sogo Keibi Hosho Co Ltd 警備装置、監視システム、異常判定方法および異常判定プログラム
JP2010268158A (ja) 2009-05-13 2010-11-25 Fujifilm Corp 画像処理システム、画像処理方法およびプログラム
JP2013196388A (ja) 2012-03-19 2013-09-30 Bs-Tbs Inc 画像処理装置、画像処理方法、および画像処理プログラム
JP2018121267A (ja) 2017-01-27 2018-08-02 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2018137515A (ja) 2017-02-20 2018-08-30 セコム株式会社 監視システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251761A (ja) 2008-04-02 2009-10-29 Toyota Motor Corp 運転支援システム
US8452528B2 (en) 2009-05-12 2013-05-28 Toyota Jidosha Kabushiki Kaisha Visual recognition area estimation device and driving support device
JP5418072B2 (ja) 2009-08-28 2014-02-19 富士通株式会社 監視制御装置及び監視システム
WO2016147704A1 (ja) 2015-03-18 2016-09-22 日本電気株式会社 監視装置、監視システム、監視方法、及びコンピュータ読み取り可能な記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226351A (ja) 2006-02-21 2007-09-06 Sogo Keibi Hosho Co Ltd 監視システム及び監視方法
JP2008040758A (ja) 2006-08-04 2008-02-21 Sogo Keibi Hosho Co Ltd 警備装置、監視システム、異常判定方法および異常判定プログラム
JP2010268158A (ja) 2009-05-13 2010-11-25 Fujifilm Corp 画像処理システム、画像処理方法およびプログラム
JP2013196388A (ja) 2012-03-19 2013-09-30 Bs-Tbs Inc 画像処理装置、画像処理方法、および画像処理プログラム
JP2018121267A (ja) 2017-01-27 2018-08-02 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2018137515A (ja) 2017-02-20 2018-08-30 セコム株式会社 監視システム

Also Published As

Publication number Publication date
US20230386215A1 (en) 2023-11-30
JPWO2020145255A1 (ja) 2021-11-04
US20230377344A1 (en) 2023-11-23
US20230377345A1 (en) 2023-11-23
US20220058398A1 (en) 2022-02-24
WO2020145255A1 (ja) 2020-07-16
US20230386216A1 (en) 2023-11-30
US11804045B2 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
US20230410513A1 (en) Abnormality detection device and abnormality detection method
JP6402219B1 (ja) 防犯システム、防犯方法、及びロボット
JP2017028364A (ja) 監視システムおよび監視装置
JP5114924B2 (ja) 防犯ロボットシステムによる警告方法及び防犯ロボットシステム
EP2978206A1 (en) Image based surveillance system
US11842513B2 (en) Image processing apparatus, image processing method, and storage medium
JP2008541650A (ja) モニタリング方法および装置
JP7248040B2 (ja) 監視装置、監視方法、およびプログラム
KR101524922B1 (ko) 비상 알림을 위한 장치, 방법 및, 기록 매체
US12100216B2 (en) Monitoring device, monitoring method, and recording medium
US20230104696A1 (en) Information registration device, information registration system, information registration method and program storage medium
JP5981015B1 (ja) 万引き犯行現場録画装置
JP7062879B2 (ja) 表示制御装置及び表示制御方法
JP2011227677A (ja) 通報装置
JP2008123057A (ja) 不審者検知装置
KR100956399B1 (ko) 카메라를 이용한 부정 사용자 검출장치 및 그 방법
JP7256082B2 (ja) 監視システム、プログラム、およびリスト作成方法
KR101360245B1 (ko) Cctv 감시장치 비트맵에 의한 이미지 데이터 처리 움직임 분석 제어 방법
JP2023121599A (ja) 表示システムおよび表示方法
JP2023121598A (ja) 通知システムおよび通知方法
JP5580673B2 (ja) 通報装置
GB2597052A (en) Temperature sensor and assembly
JP2023020925A (ja) 防犯装置、防犯方法及びプログラム
JP2022012400A (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
TW201610928A (zh) 守衛專注力程度監控裝置以及守衛專注力程度監控系統

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R151 Written notification of patent or utility model registration

Ref document number: 7248040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151