JPWO2020008726A1 - 対象物体検出プログラム、および対象物体検出装置 - Google Patents

対象物体検出プログラム、および対象物体検出装置 Download PDF

Info

Publication number
JPWO2020008726A1
JPWO2020008726A1 JP2020528701A JP2020528701A JPWO2020008726A1 JP WO2020008726 A1 JPWO2020008726 A1 JP WO2020008726A1 JP 2020528701 A JP2020528701 A JP 2020528701A JP 2020528701 A JP2020528701 A JP 2020528701A JP WO2020008726 A1 JPWO2020008726 A1 JP WO2020008726A1
Authority
JP
Japan
Prior art keywords
target object
region
image
object detection
wide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020528701A
Other languages
English (en)
Other versions
JP7243725B2 (ja
Inventor
智也 岡▲崎▼
智也 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2020008726A1 publication Critical patent/JPWO2020008726A1/ja
Application granted granted Critical
Publication of JP7243725B2 publication Critical patent/JP7243725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影画像中の領域ごとの対象物の変化に起因した対象物の誤検出を低減し、高速かつ高精度に対象物体を検出可能な対象物体検出プログラムを提供する。【解決手段】撮影された画像を取得する手順(a)と、取得された画像から特徴マップを生成する手順(b)と、画像を複数の領域に分割する分割領域と、各分割領域に対応して対象物体を検出するための辞書と、が設定された領域別推定パラメーターに基づいて、分割領域ごとに、分割領域に対応する辞書を用いて、前記特徴マップから、対象物体を検出する手順(c)と、を有する処理をコンピューターに実行させるための対象物体検出プログラム。

Description

本発明は、対象物体検出プログラム、および対象物体検出装置に関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、撮影画像から要介護者等の状態を検出するためのシステムの開発が進められている。このようなシステムで要介護者等の状態を検出するためには、撮影画像から検知対象の対象物体(対象者等)を高精度で検出する必要がある。
このような、撮影画像から対象物体を検知する技術に関連し、下記特許文献1には、次の技術が開示されている。魚眼カメラにより撮影された魚眼画像を所定の角度ずつ回転した複数の画像を作成し、回転前および回転後の複数の画像と、予めデーターベースに記憶された検出したい対象物体の画像と、を比較することで対象物体を検知する。これにより、画像の中心から周辺に向かって歪みが大きくなる魚眼画像から、高精度に対象物体を検出できる。
下記特許文献2には、次の技術が開示されている。ディープニューラルネットワークを用いて、撮影画像から特徴マップを生成する。特徴マップに基づいて、物体が存在すると推定される領域である候補矩形を検出する。そして、各候補矩形について物体のカテゴリーごとの信頼度スコアを算出することで、対象物体を検出する。これにより、撮影画像全体から生成した1つの特徴マップを利用して、候補矩形および信頼度スコアの両方の算出を行うことで、高精度かつ高速に対象物体を検出できる。
特開2012−230546号公報 米国特許出願公開第2017/0206431号明細書
しかし、特許文献1に開示された技術は、入力される魚眼画像を回転させた複数の画像を生成する必要があり、当該複数の画像に対する複数回の検出処理が必要なため処理時間が増加するという問題がある。特許文献2に開示された技術は、魚眼画像のように画像の歪みが比較的大きい画像から対象物体を検出する場合に、当該画像の歪みに起因した対象物体の誤検出が発生する可能性があるという問題がある。
本発明は、このような問題を解決するためになされたものである。すなわち、撮影画像中の領域ごとの物体の変化に起因した対象物の誤検出を低減し、高速かつ高精度に対象物体を検出可能な対象物体検出プログラム、および対象物体検出装置を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)撮影された画像を取得する手順(a)と、前記手順(a)により取得された前記画像から特徴マップを生成する手順(b)と、前記画像を複数の領域に分割する分割領域と、各分割領域に対応して対象物体を検出するための辞書と、が設定された領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから、対象物体を検出する手順(c)と、を有する処理をコンピューターに実行させるための対象物体検出プログラム。
(2)前記画像は広角画像であり、前記分割領域は、前記画像上の位置に対応して変化する歪みの大きさに応じて設定された、上記(1)に記載の対象物体検出プログラム。
(3)前記画像は、前記画像を撮影したカメラからの撮影方向の物体までの距離に対応して、前記画像上の前記物体の大きさと当該物体の実際の大きさとの比が変化した画像であり、前記分割領域は、前記比の大きさに応じて設定された、上記(1)に記載の対象物体検出プログラム。
(4)前記手順(c)は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記対象物体を検出する、上記(1)〜(3)のいずれかに記載の対象物体検出プログラム。
(5)前記手順(c)は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから物体を検出する手順(c1)と、前記手順(c1)により検出された前記物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記物体の中から前記対象物体を検出する手順(c2)と、を含む、上記(1)〜(3)のいずれかに記載の対象物体検出プログラム。
(6)前記手順(c)は、前記分割領域ごとに、前記特徴マップと前記辞書とを用いて、前記画像において設定した基準矩形の、物体が存在する矩形領域からの位置のシフト量およびスケールのシフト量を推定して、前記位置のシフト量およびスケールのシフト量を最小化することで前記物体が含まれる候補矩形を検出し、前記候補矩形に含まれた前記物体の所定のカテゴリーごとの信頼度スコアを算出し、前記信頼度スコアが最も高いカテゴリーが前記対象物体のカテゴリーとなった前記候補矩形を、前記対象物体が含まれる出力矩形として出力することで、前記対象物体を検出し、前記基準矩形の形状は、前記分割領域ごとに異なる、上記(1)〜(3)のいずれかに記載の対象物体検出プログラム。
(7)前記手順(c)は、前記広角画像を撮影したカメラのレンズの歪み特性に基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該レンズの歪み特性に対応して前記分割領域が設定された前記領域別推定パラメーターに切り替える、上記(2)に記載の対象物体検出プログラム。
(8)前記手順(c)は、前記広角画像を撮影したカメラの設置高さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該カメラの設置高さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、上記(2)に記載の対象物体検出プログラム。
(9)前記手順(c)は、前記画像の撮影範囲の広さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該撮影範囲の広さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、上記(3)に記載の対象物体検出プログラム。
(10)撮影された画像を取得する取得部と、取得された前記画像から特徴マップを生成する特徴マップ生成部と、前記画像を複数の領域に分割する分割領域と、各分割領域に対応して対象物体を検出するための辞書と、が設定された領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから、対象物体を検出する検出部と、を有する対象物体検出装置。
(11)前記画像は広角画像であり、前記分割領域は、前記画像上の位置に対応して変化する歪みの大きさに応じて設定された、上記(10)に記載の対象物体検出装置。
(12)前記画像は、前記画像を撮影したカメラからの撮影方向の物体までの距離に対応して、前記画像上の前記物体の大きさと当該物体の実際の大きさとの比が変化した画像であり、前記分割領域は、前記比の大きさに応じて設定された、上記(10)に記載の対象物体検出装置。
(13)前記検出部は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記対象物体を検出する、上記(10)〜(12)のいずれかに記載の対象物体検出装置。
(14)前記検出部は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから物体を検出する物体検出部と、前記物体検出部により検出された前記物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記物体の中から前記対象物体を検出する対象物体検出部と、を含む、上記(10)〜(12)のいずれかに記載の対象物体検出装置。
(15)前記検出部は、前記分割領域ごとに、前記特徴マップと前記辞書とを用いて、前記画像において設定した基準矩形の、物体が存在する矩形領域からの位置のシフト量およびスケールのシフト量を推定して、前記位置のシフト量およびスケールのシフト量を最小化することで前記物体が含まれる候補矩形を検出し、前記候補矩形に含まれた前記物体の所定のカテゴリーごとの信頼度スコアを算出し、前記信頼度スコアが最も高いカテゴリーが前記対象物体のカテゴリーとなった前記候補矩形を、前記対象物体が含まれる出力矩形として出力することで、前記対象物体を検出し、前記基準矩形の形状は、前記分割領域ごとに異なる、上記(10)〜(12)のいずれかに記載の対象物体検出装置。
(16)前記検出部は、前記広角画像を撮影したカメラのレンズの歪み特性に基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該レンズの歪み特性に対応して前記分割領域が設定された前記領域別推定パラメーターに切り替える、上記(11)に記載の対象物体検出装置。
(17)前記検出部は、前記広角画像を撮影したカメラの設置高さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該カメラの設置高さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、上記(11)に記載の対象物体検出装置。
(18)前記検出部は、前記画像の撮影範囲の広さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該撮影範囲の広さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、上記(12)に記載の対象物体検出装置。
撮影画像を分割した分割領域ごとに、各分割領域に対応する辞書を用いて、当該撮影画像から生成した特徴マップから対象物体を検出する。これにより、撮影画像中の領域ごとの物体の変化に起因した対象物体の誤検出を低減し、高速かつ高精度に対象物体を検出できる。
対象物体検出システムの概略構成を示す図である。 広角カメラにより撮影された広角画像を示す説明図である。 広域撮影用カメラにより撮影された広域撮影画像を示す説明図である。 対象物体検出装置のハードウェア構成を示すブロック図である。 分割領域の例を示す図である。 分割領域の例を示す図である。 対象物体検出装置の制御部の機能を示すブロック図である。 特徴マップに基づいて候補矩形を検出する方法について説明するための説明図である。 候補矩形の例を説明するための説明図である。 対象者の検出結果として出力された出力矩形の例を示す図である。 推定された関節点の例を示す説明図である。 対象物体検出装置の動作を示すフローチャートである。
以下、図面を参照して、本発明の実施形態に係る対象物体検出プログラム、および対象物体検出装置について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、実施形態に係る対象物体検出装置を含む対象物体検出システムの概略構成を示す図である。
対象物体検出システム10は、対象物体検出装置100、撮影装置200、通信ネットワーク300、および携帯端末400を有する。対象物体検出装置100は、通信ネットワーク300により撮影装置200および携帯端末400と相互に通信可能に接続される。本明細書において、対象物体とは、対象物体検出装置100が検出対象とする物体である。対象物体には複数のカテゴリーが含まれ得る。カテゴリーとは、対象物体検出装置100が認識可能な物体の種別であり、人、ベッド、机、椅子、歩行器等が含まれる。カテゴリーには、対象物体以外の物体の種別も含まれる。以下、対象物体は対象者50(すなわち、人)であるものとして説明する。
対象物体検出装置100は、撮影装置200により撮影された画像(以下、単に「撮影画像250」と称する(図2A、図2B等参照))を、撮影装置200から受信し、撮影画像250に含まれる対象者500を対象物体として検出する。後述するように、対象物体検出装置100は、撮影画像250上で物体が存在する領域を検出し、検出した領域に含まれる物体のカテゴリーを推定することで、対象者500を検出する。物体が存在する領域は、撮影画像250上で物体が含まれる矩形(以下、当該矩形を「候補矩形253」と称する(図7参照))として検出される。検出された候補矩形253のうち、物体のカテゴリーが人であると推定された候補矩形253(以下、当該候補矩形253を「出力矩形254」と称する(図8参照))を検出することで、対象者500を検出する。なお、対象物体検出装置100は、出力矩形254に基づいて、対象者500の姿勢および行動をさらに検出し得る。また、推定した行動から、対象者500に関するイベントを検出し得る。イベントとは、対象者70に関する対象物体検出装置100等が認識した状態の変化であって、例えば、起床、離床、転倒、および微体動異常等のスタッフ80に発報(報知)を行うべき事象である。対象物体検出装置100は、イベントを検出した場合は、イベントの内容を通知するイベント通知を携帯端末400へ送信する。対象物体検出装置100は、ディープニューラルネットワーク(以下、「DNN」と称する)により、対象者500を検出し得る。DNNによる対象物体の検出方法としては、例えば、Fater R−CNN、Fast R−CNN、およびR−CNNといった公知の方法が挙げられる。以下、対象物体検出装置100は、Faster R−CNNを利用して対象物体を検出するものとして説明する。対象物体検出装置100は、コンピューターにより構成される。例えば、対象物体検出装置100は、サーバーとして構成され得る。
撮影装置200は、たとえば近赤外線カメラにより構成され、所定の位置に設置されることで、当該所定の位置を視点として俯瞰される撮影領域を撮影する。すなわち、撮影装置200は、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで撮影領域を撮影し得る。撮影画像250は近赤外線の反射率を各画素とするモノクロ画像であり得る。所定の位置は、たとえば対象者500の居室の天井である。撮影領域は、たとえば居室の床全体を含む3次元の領域である。撮影装置200は、たとえば15fps〜30fpsのフレームレートの動画として撮影領域を撮影し得る。撮影画像250には動画と静止画とを含む。撮影装置200は、撮影画像250を対象物体検出装置100等に送信する。
撮影装置200を構成するカメラは、広角カメラであり得る。広角カメラは、比較的広い画角の撮影画像250を撮影できるカメラであり、撮影画像250上の位置に対応して歪みの大きさが変化するカメラである。広角カメラには、例えば、魚眼レンズカメラが含まれる。
一方、撮影装置200を構成するカメラは、比較的広い範囲を撮影範囲とするために、カメラの設置高さ等を調整することで、画角を広くしたカメラ(以下、「広域撮影用カメラ」と称する)であり得る。広域撮影用カメラは、カメラから撮影方向の物体までの距離に対応して、撮影画像250上の物体の大きさと、当該物体の実際の大きさとの比が変化した撮影画像250が撮影されるカメラである。広域撮影用カメラとして、撮影画像250上の位置に対応して歪みの大きさを変化させていない一般的なカメラを広域撮影用カメラとして利用できる。
図2Aは、広角カメラにより撮影された広角画像を示す説明図である。図2Bは、広域撮影用カメラにより撮影された広域撮影画像を示す説明図である。
図2Aは、広角カメラにより居室にいる人501を撮影したときの広角画像251を示している。なお、説明を簡単にするために、当該広角画像251においては、同じ人501が異なる3つの位置にいて、1つの広角画像251において撮影されたものとして仮想的に示されている。広角画像251は、破線の矢印で示す、画像の中心から画像の外側に向って歪みが大きくなる。これにより、同じ人501であっても、広角画像251上の人501の位置が広角画像251の中心に近いか遠いかによって、形状等が比較的大きく変化する。
図2Bは、広域撮影用カメラにより、空503、海504、および砂浜505を含むように、海504または砂浜505に存在する船502を撮影したときの広域撮影画像252を示している。なお、説明を簡単にするために、当該広域撮影画像252においては、同じ船502が異なる3つの位置にあって、1つの広域撮影画像252において撮影されたものとして仮想的に示されている。図2Bの例においては、広域撮影画像252は、破線の矢印で示す、画像の下から上に向って、広域撮影用カメラから撮影方向の船502までの距離が遠くなる。これにより、同じ船502であっても、広域撮影画像252上の船502の位置が広域撮影画像252の上方向にいくに従い、画像上の船502の大きさが小さくなる。このことは、広域撮影画像252は、広域撮影用カメラからの撮影方向の物体までの距離の変化に対応して、画像上の物体の大きさと当該物体の実際の大きさとの比(比の大きさ)が変化することを意味する。
撮影装置200は、コンピューターを有するセンサーボックスにより構成し得る。センサーボックスとは、近赤外線カメラおよび体動センサー等を備える箱状の装置である。この場合、対象物体検出装置100の機能の一部または全部をセンサーボックスが有するようにし得る。体動センサーは、ベッドに対してマイクロ波を送受信して対象者500の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式のセンサーである。
通信ネットワーク300には、イーサネット(登録商標)などの有線通信規格によるネットワークインターフェースを使用し得る。通信ネットワーク300には、Bluetooth(登録商標)、IEEE802.11などの無線通信規格によるネットワークインターフェースを使用してもよい。通信ネットワーク300には、アクセスポイント310が設けられ、携帯端末400と、対象物体検出装置100および撮影装置200とを無線通信ネットワークにより通信可能に接続する。
携帯端末400は、対象物体検出装置100からイベント通知を受信し、イベント通知の内容を表示する。携帯端末400は、対象物体検出装置100により検出された対象者500の検出結果を対象物体検出装置100から受信して表示する。具体的には、例えば、携帯端末400は、撮影画像250上で出力矩形254を表示することで、対象者500の検出結果を表示し得る。携帯端末400は、対象物体検出装置100から、対象者500の姿勢および行動の検出結果を受信して表示し得る。姿勢の検出結果には、後述するように、対象者500の関節点119(図9参照)の推定結果が含まれる。行動の検出結果には、起床、離床、転倒、および微体動異常等のイベントに該当する行動の検出結果の他、入室、睡眠、および着座等の行動の検出結果が含まれる。行動の検出結果はイベント通知に含まれて受信されてもよい。携帯端末400は、撮影装置200または対象物体検出装置100から撮影画像250を受信して表示し得る。携帯端末400は、たとえばスマートフォンにより構成される。
図3は、対象物体検出装置のハードウェア構成を示すブロック図である。対象物体検出装置100は、制御部110、記憶部120、表示部130、入力部140、および通信部150を有する。これらの構成要素は、バス160を介して相互に接続される。
制御部110は、CPU(Central Processing Unit)により構成され、プログラムにしたがって対象物体検出装置100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびSSD(Solid State Drive)により構成され得る。RAMは、制御部110の作業領域として一時的にプログラムやデータを記憶する。ROMは、あらかじめ各種プログラムや各種データを格納する。SSDは、オペレーションシステムを含む各種プログラムおよび各種データを格納する。
記憶部120は、撮影画像250を複数の領域に分割する分割領域(以下、単に「分割領域」と称する)と、各分割領域に対応する辞書とが設定された領域別推定パラメーターを記憶する。分割領域は、例えば、分割後の撮影画像250の複数の領域に含まれる画素の座標として設定され得る。辞書は、DNNの各層のノード間に与えられた重み付けを定義するデータであり、辞書をDNNに反映させることで、DNNを学習済みモデルとすることができる。本実施形態においては、分割領域ごとに、当該分割領域に対応した辞書をDNNに反映させ、後述する特徴マップ(畳み込み特徴マップ)から、対象者500を検出する。
図4A、図4Bは、分割領域の例を示す図である。図4Aは、広角画像251に対して設定された分割領域の例である。図4Bは、広域撮影画像252に対して設定された分割領域の例である。
図4Aの例においては、広角画像251の中心部に設定された1つの矩形の分割領域(グレーのEで示された領域)と、その周囲に設定された8個の矩形の分割領域(グレーのA〜D、F〜Iで示された領域)が示されている。すなわち、広角画像251の歪が比較的小さい領域と、歪みが比較的大きい領域とに区分されるように分割領域が設定されている。本実施形態においては、分割領域ごとに、対応する領域別推定パラメーターを用いる。これにより、広角画像251の歪が比較的小さい領域と、歪みが比較的大きい領域とで異なる領域別推定パラメーターが用いられる。
図4Bの例においては、広域撮影画像252の上部に設定された分割領域(グレーのAで示された領域)、中部に設定された分割領域(グレーのBで示された領域)、および下部に設定された分割領域(グレーのCで示された領域)が示されている。すなわち、広域撮影画像252上の物体の大きさと当該物体の実際の大きさとの比が大きい、広域撮影画像252の上部と、当該比が小さい、広域撮影画像252の下部と、当該比がこれらの中間の、広域撮影画像252の中部と、に区分されるように分割領域が設定されている。従って、広域撮影画像252上の物体の大きさと当該物体の実際の大きさとの比の大きさに応じて異なる領域別推定パラメーターが用いられる。
表示部130は、たとえば液晶ディスプレイであり、各種情報を表示する。
入力部140は、たとえばタッチパネルや各種キーにより構成される。入力部140は、各種操作、入力のために使用される。
通信部150は、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いられ得る。その他、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースが用いられ得る。通信部150は、撮影装置200から撮影画像250を受信する。通信部150は、イベント通知を携帯端末400へ送信する。通信部150は、撮影画像250からの対象者500の検出結果を携帯端末400へ送信する。また、通信部150は、対象者500の姿勢および行動の検出結果を携帯端末400へ送信し得る。
制御部110の機能の詳細について説明する。
図5は、対象物体検出装置の制御部の機能を示すブロック図である。制御部110は、画像取得部111、対象物体検出部112、関節点推定部113、行動推定部114、および、出力部115を有する。画像取得部111は取得部を構成する。対象物体検出部112は、特徴マップ生成部、検出部、物体検出部、および対象物体検出部を構成する。
画像取得部111は、通信部150を介して撮影装置200から受信した撮影画像250を取得する。
対象物体検出部112は、次のように、撮影画像250から、対象者500を検出する。DNNによる撮影画像250の畳み込み演算により、画素の特徴が抽出された特徴マップを生成する。領域別推定パラメーターを記憶部120から読み出し、設定された分割領域ごとに、分割領域に対応する辞書を反映させたDNNにより、特徴マップから対象者500を検出する。具体的には、分割領域ごとに、DNNにより、特徴マップに基づいて、撮影画像250上で物体が存在する領域を候補矩形253として検出し、候補矩形253に含まれる物体のカテゴリーを推定する。そして、推定された物体のカテゴリーが人である候補矩形253を、対象者500が含まれる出力矩形254として検出する。以下、特徴マップから候補矩形253および出力矩形254を検出する方法について詳細に説明する。
図6は、特徴マップに基づいて候補矩形を検出する方法について説明するための説明図である。図7は、候補矩形の例を説明するための説明図である。
図6においては、特徴マップ116の、分割領域に対応する部分が特徴マップ116として示されている。特徴マップ116には、局所領域としてグリッド117が設定される。各グリッド117には、撮影画像250上の基準矩形であるアンカー118が対応付けされる。各グリッド117には、予め形状が決められた複数のアンカー118が対応付けされる。複数のアンカー118の形状は、分割領域ごとに異なってもよい。分割領域に対応する辞書を反映させたDNNにより、各アンカー118に物体が存在する確率を推定し、物体が存在する確率が最も高いアンカー118を決定する。決定されたアンカー118の、物体が存在する矩形領域からの位置のシフト量およびスケールのシフト量を推定して、これらのシフト量を最小化することで候補矩形253を検出する。
図7の例においては、物体である、人、ベッド、机、椅子、歩行器、テレビ、および扇風機等がそれぞれ含まれた候補矩形253が示されている。なお、一部の物体(例えば、動物等の動く物体)のみが候補矩形253として検出されてもよい。
対象物体検出部112は、検出した候補矩形253ごとに、所定のカテゴリーごとの信頼度スコアを算出する。信頼度スコアは、所定のカテゴリーごとの尤度である。所定のカテゴリーは、対象者500のカテゴリーである人を含めて任意に設定できる。所定のカテゴリーは、例えば、人、椅子、机、および機具とし得る。対象物体検出部112は、信頼度スコアが最も高いカテゴリーが人である候補矩形253を出力矩形254として検出する。
対象物体検出部112は、検出した出力矩形254を、算出した、カテゴリーごとの信頼度スコアとともに出力する。
図8は、対象者の検出結果として出力された出力矩形254の例を示す図である。
図8の例においては、広角画像251に対する、対象者500の検出結果が示されている。検出結果として出力された出力矩形254には、所定のカテゴリーごとの信頼度スコアが付記されている。人のカテゴリーの信頼度スコアが0.9で、機具のカテゴリーの信頼度スコアが0.1で、それ以外のカテゴリーの信頼度スコアは0である。これにより、人のカテゴリーの信頼度スコアが最も高い候補矩形253が出力矩形254として検出されたことで、対象者500が検出されていることが判る。なお、本実施形態においては、上述したように、対象物体を対象者500のみとしているため、「人」以外のカテゴリーの信頼度スコアが最も高くなった候補矩形253は、出力矩形254として検出されない。
本実施形態においては、撮影画像250を分割した分割領域ごとに、各分割領域に対応する辞書を用いて、撮影画像250から生成した特徴マップ116から対象者500を検出する。これにより、撮影画像250中の領域ごとの対象物の変化に起因した対象物の誤検出を低減できる。一方、撮影画像250の全ての領域において、同じ辞書を用いて、特徴マップ116から対象者500を検出した場合は、撮影画像250中の領域ごとの対象物の変化に起因した対象物の誤検出が発生し得る。すなわち、例えば、撮影画像250の歪みにより、歩行器の画像が変化することで、当該歩行器が含まれる候補矩形253の、人に対する信頼度スコアが他のカテゴリーに対して相対的に大きくなり、歩行器を人として誤検出されることが発生し得る。
また、本実施形態においては、撮影画像250の全体から特徴マップ116を生成し、分割領域ごとに特徴マップ116を生成しない。すなわち、各分割領域からの対象者500の検出において1つの特徴マップ116を共有し、分割領域ごとに特徴マップ116を生成しない。これにより、高速かつ高精度に対象者500を検出できる。
関節点推定部113は、出力矩形254に基づいて、対象者500の姿勢として関節点119を推定し、関節点119の検出結果として行動推定部114へ出力する。関節点推定部113は、DNNを用いた公知の方法により、出力矩形254に基づいて関節点119を推定し得る。
図9は、推定された関節点の例を示す説明図である。関節点119は撮影画像250に重畳されて示されており、関節点119の位置は白抜きの丸により示されている。関節点119には、例えば、頭、首、肩、肘、手、腰、腿、膝、および足の関節点119が含まれる。図9の例においては、各関節点119の相対的な位置関係から、対象者500が座位の姿勢にあることが認識できる。
行動推定部114は、関節点推定部113により推定された関節点119に基づいて、対象者500の行動を推定し、対象者500の行動の検出結果として出力部115へ出力する。行動推定部114は、複数の撮影画像250から推定された関節点119の時間的変化に基づいて対象者500の行動を推定し得る。行動推定部114は、例えば、各関節点119の平均速度が急に低下し、かつ平均速度の低下後の各関節点119により認識される姿勢が臥位であるような場合に、対象者500の行動として「転倒」を推定し得る。
出力部115は、対象物体検出部112により検出された出力矩形254、関節点推定部113により検出された、対象者500の関節点119、および行動推定部114により検出された、対象者500の行動を出力する。
対象物体検出装置100の動作について説明する。
図10は、対象物体検出装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムにしたがい、制御部110により実行される。
制御部110は、領域推定パラメーターを記憶部120に記憶させる(S101)。
制御部110は、撮影装置200から、通信部150を介して撮影画像250を取得する(S102)。
制御部110は、DNNを用いて、撮影画像250から特徴マップを生成する(S103)。
制御部110は、対象者500の検出に用いる領域別パラメーターを、選択することにより切り替える。
撮影装置200が広角カメラの場合は、制御部110は、領域別パラメーターを、広角カメラの歪み特性に基づいて選択され得る。広角カメラの歪み特性は、広角カメラの型番により特定される。このため、例えば、広角カメラごとに、広角カメラの型番と対応付けて、当該型番の広角カメラの歪み特性に対応して分割領域が設定された領域別パラメーターを記憶部120に予め記憶させておく。制御部110は、広角カメラから取得される撮影画像250のデータに含まれる、広角カメラの型番に対応する領域別パラメーターを選択し得る。制御部110は、表示部130に撮影装置200の広角カメラの歪み特性の入力を受け付ける画面を表示して、入力部140においてユーザーに入力された歪み特性に基づいて、当該歪み特性に対応して分割領域が設定された領域別パラメーターを選択してもよい。制御部110は、領域別パラメーターを、撮影装置200の広角カメラの設置高さに基づいて選択してもよい。例えば、広角カメラの設置高さごとに、当該設置高さと対応付けて、当該設置高さに対応して分割領域が設定された領域別パラメーターを記憶部120に予め記憶させておく。施設のCAD(Computer−Aided Design)データを記憶部120に予め記憶させておく。制御部110は、広角カメラから取得される撮影画像250のデータに含まれる、広角カメラが設置された居室の部屋番号等から、施設のCADデータに基づいて、当該居室において広角カメラが設置された天井の高さを算出する。そして、算出された高さの設置高さに対応して分割領域が設定された領域別パラメーターを取得し得る。制御部110は、表示部130に撮影装置200の広角カメラの設置高さの入力を受け付ける画面を表示して、入力部140においてユーザーに入力された設置高さに基づいて、当該設置高さに対応して分割領域が設定された領域別パラメーターを選択してもよい。
撮影装置200が広域撮影用カメラの場合は、制御部110は、領域別パラメーターを、撮影装置200の撮影範囲の広さに基づいて選択され得る。例えば、広域撮影画像252の撮影範囲の広さごとに、当該撮影範囲の広さと対応付けて、当該撮影範囲の広さに対応して分割領域が設定された領域別パラメーターを記憶部120に予め記憶させておく。制御部110は、表示部130に撮影装置200の広域撮影用カメラの撮影範囲の広さ(例えば、撮影面積、または画角)の入力を受け付ける画面を表示して、入力部140においてユーザーに入力された撮影範囲の広さに基づいて、当該撮影範囲の広さに対応して分割領域が設定された領域別パラメーターを選択し得る。制御部110は、領域別パラメーターを、撮影装置200の広域撮影用カメラの設置高さに基づいて選択してもよい。例えば、広域撮影用カメラの設置高さごとに、当該設置高さと対応付けて、当該設置高さに対応して分割領域が設定された領域別パラメーターを記憶部120に予め記憶させておく。施設のCADデータを記憶部120に予め記憶させておく。制御部110は、広域撮影用カメラから取得される広域撮影画像252のデータに含まれる、広域撮影用カメラが設置された居室の部屋番号等から、施設のCADデータに基づいて、当該居室において広域撮影用カメラが設置された天井の高さを算出する。そして、算出された高さの設置高さに対応して分割領域が設定された領域別パラメーターを取得し得る。制御部110は、表示部130に撮影装置200の広域撮影用カメラの設置高さの入力を受け付ける画面を表示して、入力部140においてユーザーに入力された設置高さに基づいて、当該設置高さに対応して分割領域が設定された領域別パラメーターを選択してもよい。
制御部110は、領域別推定パタメーターに基づいて、分割領域ごとに、分割領域に対応する辞書を用いて、特徴マップから、物体が含まれる候補矩形253を検出する(S105)。
制御部110は、候補矩形253ごとに所定のカテゴリーごとの信頼度スコアを算出して、出力矩形254を検出することで、対象者500を検出する(S106)。
制御部110は、出力矩形254と、当該出力矩形254に対する所定のカテゴリーごとの信頼度スコアを、携帯端末400へ送信すること等により出力する(S107)。
本発明に係る実施形態は、以下の効果を奏する。
撮影画像を分割した分割領域ごとに、各分割領域に対応する辞書を用いて、当該撮影画像から生成した特徴マップから対象物体を検出する。これにより、撮影画像中の領域ごとの対象物の変化に起因した対象物の誤検出を低減し、高速かつ高精度に対象物体を検出できる。
さらに、撮影画像が広角画像の場合は、分割領域を、広角画像である撮影画像上の位置に対応して変化する歪みの大きさに応じて設定する。これにより、撮影画像が広角画像であっても、広角画像における領域ごとの歪みの大きさによる対象物の変化に起因した対象物の誤検出を低減し、高速かつ高精度に対象物体を検出できる。
さらに、撮影画像を、当該撮影画像を撮影したカメラからの撮影方向の物体までの距離に対応して、撮影画像上の物体の大きさと当該物体の実際の大きさとの比が変化した画像とし、分割領域を、撮影画像上の物体の大きさと当該物体の実際の大きさとの比の大きさに応じて設定する。これにより、撮影画像が、撮影画像上の物体の大きさと当該物体の実際の大きさとの比が変化した広域撮影画像であっても、広域撮影画像における領域ごとの、撮影画像上の物体の大きさと当該物体の実際の大きさとの比の変化に起因した対象物の誤検出を低減し、高速かつ高精度に対象物体を検出できる。
さらに、領域別推定パラメーターに基づいて、分割領域ごとに、分割領域に対応する辞書を用いて、物体の所定のカテゴリーごとの信頼度スコアを算出することで、対象物体を検出する。これにより、分割領域ごとに分割領域に対応する辞書を用いて信頼度スコアを算出して対象物体を検出することで、撮影画像中の領域ごとの対象物の変化に起因した対象物の誤検出をより効果的に低減し、高速かつより高精度に対象物体を検出できる。
さらに、領域別推定パラメーターに基づいて、分割領域ごとに、分割領域に対応する辞書を用いて、特徴マップから物体を検出した後、検出された物体の所定のカテゴリーごとの信頼度スコアを算出することで、物体の中から対象物体を検出する。これにより、物体の検出精度と、物体のカテゴリーごとの信頼度スコアの算出精度を分けて検証できることで、より高精度に対象物体を検出できる。
さらに、分割領域ごとに、特徴マップと辞書とを用いて、撮影画像において設定した基準矩形の、物体が存在する矩形領域からの位置のシフト量およびスケールのシフト量を推定して、当該位置のシフト量およびスケールのシフト量を最小化することで候補矩形253を検出する。そして、候補矩形253に含まれた物体の所定のカテゴリーごとの信頼度スコアを算出し、信頼度スコアが最も高いカテゴリーが対象物体のカテゴリーとなった候補矩形を、対象物体が含まれた出力矩形と推定することで、対象物体を検出する。また、基準矩形は、分割領域ごとに異なる形状とする。これにより、Faster R−CNNを利用して、より簡易に、高速かつ高精度な対象物体の検出を実現できる。
さらに、撮影画像として広角画像を撮影したカメラのレンズの歪み特性に基づいて、対象物体を検出するために用いる領域別推定パラメーターを、レンズの歪み特性に対応して分割領域が設定された領域別推定パラメーターに切り替える。これにより、より簡単な手順により、広角画像から高速かつ高精度に対象物体を検出できる。
さらに、撮影画像として広角画像を撮影したカメラの設置高さに基づいて、対象物体を検出するために用いる領域別推定パラメーターを、カメラの設置高さに対応した分割領域が設定された領域別推定パラメーターに切り替える。これにより、より簡単な手順により、広角画像から高速かつ高精度に対象物体を検出できる。
さらに、広域撮影画像の撮影範囲の広さに基づいて、対象物体を検出するために用いる領域別推定パラメーターを、当該撮影範囲の広さに対応した分割領域が設定された領域別推定パラメーターに切り替える。これにより、より簡単な手順により、広域撮影画像から高速かつ高精度に対象物体を検出できる。
以上に説明した対象物体検出システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な対象物体検出システムが備える構成を排除するものではない。
例えば、対象物体検出装置100が有する機能を、センサーボックスにより構成される撮影装置200、または携帯端末400が備えるようにしてもよい。
また、対象物体検出装置100、撮影装置200、および携帯端末400は、それぞれ複数の装置により構成されてもよく、いずれか複数の装置が単一の装置として構成されてもよい。
また、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、対象物体は、人に限定されず、船、猫、または犬等であってもよく、対象物体に複数のカテゴリーが含まれてもよい。
また、上述した対象物体検出システム10における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
本出願は、2018年7月2日に出願された日本特許出願(特願2018−126305号)に基づいており、その開示内容は、参照され、全体として、組み入れられている。

Claims (18)

  1. 撮影された画像を取得する手順(a)と、
    前記手順(a)により取得された前記画像から特徴マップを生成する手順(b)と、
    前記画像を複数の領域に分割する分割領域と、各分割領域に対応して対象物体を検出するための辞書と、が設定された領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから、対象物体を検出する手順(c)と、
    を有する処理をコンピューターに実行させるための対象物体検出プログラム。
  2. 前記画像は広角画像であり、
    前記分割領域は、前記画像上の位置に対応して変化する歪みの大きさに応じて設定された、請求項1に記載の対象物体検出プログラム。
  3. 前記画像は、前記画像を撮影したカメラからの撮影方向の物体までの距離に対応して、前記画像上の前記物体の大きさと当該物体の実際の大きさとの比が変化した画像であり、
    前記分割領域は、前記比の大きさに応じて設定された、請求項1に記載の対象物体検出プログラム。
  4. 前記手順(c)は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記対象物体を検出する、請求項1〜3のいずれか一項に記載の対象物体検出プログラム。
  5. 前記手順(c)は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから物体を検出する手順(c1)と、前記手順(c1)により検出された前記物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記物体の中から前記対象物体を検出する手順(c2)と、を含む、請求項1〜3のいずれか一項に記載の対象物体検出プログラム。
  6. 前記手順(c)は、前記分割領域ごとに、前記特徴マップと前記辞書とを用いて、前記画像において設定した基準矩形の、物体が存在する矩形領域からの位置のシフト量およびスケールのシフト量を推定して、前記位置のシフト量およびスケールのシフト量を最小化することで前記物体が含まれる候補矩形を検出し、前記候補矩形に含まれた前記物体の所定のカテゴリーごとの信頼度スコアを算出し、前記信頼度スコアが最も高いカテゴリーが前記対象物体のカテゴリーとなった前記候補矩形を、前記対象物体が含まれる出力矩形として出力することで、前記対象物体を検出し、
    前記基準矩形の形状は、前記分割領域ごとに異なる、請求項1〜3のいずれか一項に記載の対象物体検出プログラム。
  7. 前記手順(c)は、前記広角画像を撮影したカメラのレンズの歪み特性に基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該レンズの歪み特性に対応して前記分割領域が設定された前記領域別推定パラメーターに切り替える、請求項2に記載の対象物体検出プログラム。
  8. 前記手順(c)は、前記広角画像を撮影したカメラの設置高さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該カメラの設置高さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、請求項2に記載の対象物体検出プログラム。
  9. 前記手順(c)は、前記画像の撮影範囲の広さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該撮影範囲の広さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、請求項3に記載の対象物体検出プログラム。
  10. 撮影された画像を取得する取得部と、
    取得された前記画像から特徴マップを生成する特徴マップ生成部と、
    前記画像を複数の領域に分割する分割領域と、各分割領域に対応して対象物体を検出するための辞書と、が設定された領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから、対象物体を検出する検出部と、
    を有する対象物体検出装置。
  11. 前記画像は広角画像であり、
    前記分割領域は、前記画像上の位置に対応して変化する歪みの大きさに応じて設定された、請求項10に記載の対象物体検出装置。
  12. 前記画像は、前記画像を撮影したカメラからの撮影方向の物体までの距離に対応して、前記画像上の前記物体の大きさと当該物体の実際の大きさとの比が変化した画像であり、
    前記分割領域は、前記比の大きさに応じて設定された、請求項10に記載の対象物体検出装置。
  13. 前記検出部は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記対象物体を検出する、請求項10〜12のいずれか一項に記載の対象物体検出装置。
  14. 前記検出部は、前記領域別推定パラメーターに基づいて、前記分割領域ごとに、前記分割領域に対応する前記辞書を用いて、前記特徴マップから物体を検出する物体検出部と、前記物体検出部により検出された前記物体の所定のカテゴリーごとの信頼度スコアを算出することで、前記物体の中から前記対象物体を検出する対象物体検出部と、を含む、請求項10〜12のいずれか一項に記載の対象物体検出装置。
  15. 前記検出部は、前記分割領域ごとに、前記特徴マップと前記辞書とを用いて、前記画像において設定した基準矩形の、物体が存在する矩形領域からの位置のシフト量およびスケールのシフト量を推定して、前記位置のシフト量およびスケールのシフト量を最小化することで前記物体が含まれる候補矩形を検出し、前記候補矩形に含まれた前記物体の所定のカテゴリーごとの信頼度スコアを算出し、前記信頼度スコアが最も高いカテゴリーが前記対象物体のカテゴリーとなった前記候補矩形を、前記対象物体が含まれる出力矩形として出力することで、前記対象物体を検出し、
    前記基準矩形の形状は、前記分割領域ごとに異なる、請求項10〜12のいずれか一項に記載の対象物体検出装置。
  16. 前記検出部は、前記広角画像を撮影したカメラのレンズの歪み特性に基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該レンズの歪み特性に対応して前記分割領域が設定された前記領域別推定パラメーターに切り替える、請求項11に記載の対象物体検出装置。
  17. 前記検出部は、前記広角画像を撮影したカメラの設置高さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該カメラの設置高さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、請求項11に記載の対象物体検出装置。
  18. 前記検出部は、前記画像の撮影範囲の広さに基づいて、前記対象物体を検出するために用いる前記領域別推定パラメーターを、当該撮影範囲の広さに対応した前記分割領域が設定された前記領域別推定パラメーターに切り替える、請求項12に記載の対象物体検出装置。
JP2020528701A 2018-07-02 2019-05-09 対象物体検出プログラム、および対象物体検出装置 Active JP7243725B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018126305 2018-07-02
JP2018126305 2018-07-02
PCT/JP2019/018629 WO2020008726A1 (ja) 2018-07-02 2019-05-09 対象物体検出プログラム、および対象物体検出装置

Publications (2)

Publication Number Publication Date
JPWO2020008726A1 true JPWO2020008726A1 (ja) 2021-07-08
JP7243725B2 JP7243725B2 (ja) 2023-03-22

Family

ID=69060638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020528701A Active JP7243725B2 (ja) 2018-07-02 2019-05-09 対象物体検出プログラム、および対象物体検出装置

Country Status (3)

Country Link
EP (1) EP3819864A4 (ja)
JP (1) JP7243725B2 (ja)
WO (1) WO2020008726A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023181277A1 (ja) * 2022-03-24 2023-09-28 ファナック株式会社 外観検査装置、外観検査方法、及びコンピュータ読み取り可能な記録媒体
JP7365729B1 (ja) 2022-10-06 2023-10-20 株式会社アジラ 姿勢推定システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013141876A (ja) * 2012-01-10 2013-07-22 Denso Corp 車両周辺監視装置
JP2016171526A (ja) * 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5739722B2 (ja) 2011-04-26 2015-06-24 株式会社日立情報通信エンジニアリング 物体認識方法及び認識装置
US9858496B2 (en) 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
JP6679512B2 (ja) 2017-02-08 2020-04-15 株式会社オリンピア 遊技機

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013141876A (ja) * 2012-01-10 2013-07-22 Denso Corp 車両周辺監視装置
JP2016171526A (ja) * 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
三木大輔, 外1名: ""画像の歪曲に頑健な人物姿勢認識手法"", 電子情報通信学会技術研究報告, vol. 第117巻, 第238号, JPN6022042901, 5 October 2017 (2017-10-05), JP, pages 169 - 174, ISSN: 0004893286 *

Also Published As

Publication number Publication date
EP3819864A1 (en) 2021-05-12
JP7243725B2 (ja) 2023-03-22
WO2020008726A1 (ja) 2020-01-09
EP3819864A4 (en) 2021-08-18

Similar Documents

Publication Publication Date Title
US7106885B2 (en) Method and apparatus for subject physical position and security determination
US9817017B2 (en) Method and apparatus for monitoring individuals while protecting their privacy
JP7196645B2 (ja) 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
WO2014199941A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US9477880B2 (en) Behavior detection method and behavior detection apparatus
JP2020086819A (ja) 画像処理プログラムおよび画像処理装置
JP2019121045A (ja) 姿勢推定システム、行動推定システム、および姿勢推定プログラム
JP2017168105A (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
JP2020027405A (ja) 物体検出プログラム、および物体検出装置
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP6048630B1 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2022048830A (ja) 検知システム、検知装置、端末装置、表示制御装置、検知方法およびプログラム
JPWO2019193899A1 (ja) 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
JP6870514B2 (ja) 見守り支援システム及びその制御方法
US20230412919A1 (en) Device and method for controlling a camera
JP7530222B2 (ja) 検知装置、検知方法、画像処理方法、およびプログラム
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2023195305A1 (ja) 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP7515358B2 (ja) システム、電子機器、電子機器の制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R150 Certificate of patent or registration of utility model

Ref document number: 7243725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150