JP6947187B2 - 画像認識システム及び画像認識方法 - Google Patents

画像認識システム及び画像認識方法 Download PDF

Info

Publication number
JP6947187B2
JP6947187B2 JP2018554819A JP2018554819A JP6947187B2 JP 6947187 B2 JP6947187 B2 JP 6947187B2 JP 2018554819 A JP2018554819 A JP 2018554819A JP 2018554819 A JP2018554819 A JP 2018554819A JP 6947187 B2 JP6947187 B2 JP 6947187B2
Authority
JP
Japan
Prior art keywords
image
image recognition
time
unit
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018554819A
Other languages
English (en)
Other versions
JPWO2018105171A1 (ja
Inventor
早田 啓介
啓介 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2018105171A1 publication Critical patent/JPWO2018105171A1/ja
Application granted granted Critical
Publication of JP6947187B2 publication Critical patent/JP6947187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Description

本発明は、例えば、被監視者を監視するシステムに適用可能な画像認識技術に関する。
人工知能を用いた画像認識技術が、例えば、特許文献1〜3に開示されている。いずれもニューラルネットワークを用いた画像認識技術である。特許文献1を例にして説明する。特許文献1は、被観察者のベッド上での動作を一定時間ごとに撮影した画像をシルエット画像またはモザイク画像に変換処理し、その画像データを用いて被観察者が起床状態または就寝状態であるかを識別し、被観察者が離床するか否かをニューラルネットワークを用いて判定し、被観察者の離床を感知した際にあらかじめ特定した看護師等に自動的に通報する技術を開示している。
人工知能の一種として、深層学習(deep learning:ディープラーニング)がある。深層学習を用いて画像認識をすれば、高精度な画像認識が実現される。深層学習を用いて画像認識をする場合、画像認識の精度は高くなるが、画像認識をする装置の負荷が高くなる。
特開2007−72964号公報 特開2008−21034号公報 特開2016−157170号公報
本発明の目的は、サーバ装置を備える画像認識システムにおいて、サーバ装置の負荷を軽減することができる画像認識システム、及び、画像認識方法を提供することである。
上述した目的を実現するために、本発明の一側面を反映した画像認識システムは、複数のセンサ装置と、前記複数のセンサ装置のそれぞれとネットワーク接続されたサーバ装置と、を備える画像認識システムである。前記複数のセンサ装置は、それぞれ、取得部と、第1の画像認識部と、送信データ生成部と、第1の通信部と、を備える。前記取得部は、時系列に撮像された時系列画像を取得する。前記第1の画像認識部は、前記時系列画像に対して画像認識処理をして、前記時系列画像に写された撮像対象に所定の事象が発生したか否かを推定する。前記送信データ生成部は、前記第1の画像認識部が前記撮像対象に前記所定の事象が発生した推定をしたことを前提条件として、前記時系列画像を構成するそれぞれの画像から前記撮像対象の像を含む部分画像を切り出した第1の時系列画像、又は、前記第1の時系列画像を構成するそれぞれの前記部分画像の特徴マップを、前記サーバ装置に送信する送信データとして生成する。前記第1の通信部は、前記ネットワークを介して前記送信データを送信する。前記サーバ装置は、第2の通信部と、第2の画像認識部と、を備える。前記第2の通信部は、前記送信データを受信する。前記第2の画像認識部は、前記第2の通信部が受信した前記送信データに対して、前記第1の画像認識部よりも画像認識の精度が高い画像認識処理をして、前記撮像対象に前記所定の事象が発生したか否かを推定する。
発明の1又は複数の実施形態により与えられる利点及び特徴は以下に与えられる詳細な説明及び添付図面から十分に理解される。これら詳細な説明及び添付図面は、例としてのみ与えられるものであり本発明の限定の定義として意図されるものではない。
実施形態に係る被監視者監視システムの構成を説明する説明図である。 実施形態に係る画像認識システムの構成を説明する説明図である。 センサ装置の構成を示すブロック図である。 第1の時系列画像を説明する説明図である。 管理サーバ装置の構成を示すブロック図である。 実施形態に係る画像認識システムの動作を説明するフローチャートである。 特徴マップの生成工程を説明する説明図である。 特徴マップにより構成される送信データを説明する説明図である。 第1変形例の動作を説明するフローチャートである。 第2変形例に備えられるセンサ装置の構成を示すブロック図である。 第2変形例に備えられる管理サーバ装置の構成を示すブロック図である。 第2変形例の動作を説明するフローチャートである。 第3変形例に備えられるセンサ装置の構成を示すブロック図である。 第3変形例に備えられる管理サーバ装置の構成を示すブロック図である。 第3変形例の動作を説明するフローチャートである。
被監視者を監視するシステムとして、複数のセンサ装置と、これらのセンサ装置とネットワーク接続されたサーバ装置と、を備えるシステムがある(例えば、特願2016−097088)。被監視者とは、例えば、看護を必要とする者や、介護を必要とする者である。このシステムは、例えば、介護施設に導入される。複数の部屋のそれぞれに、センサ装置が配置される。センサ装置は、部屋内の被監視者を撮像し、撮像した被監視者の画像をサーバ装置へ送る。サーバ装置は、画像認識技術を用いて、被監視者について所定の事象(例えば、転倒)が発生したか否かを判定する。
サーバ装置は、複数のセンサ装置のそれぞれから送られてきた画像(すなわち、複数の被監視者の画像)に対して画像認識処理をし、複数の被監視者のそれぞれについて、所定の事象が発生したか否かを判定する。深層学習を用いて画像認識をする場合、画像認識の精度は高くなるが、サーバ装置の負荷が高くなる。複数のセンサ装置から送られてきた画像に対して深層学習を用いて画像認識をすると、サーバ装置の負荷が相当高くなる。これにより、サーバ装置がリアルタイムで画像認識するために、高性能なサーバ装置がセンサ装置毎に必要となる。
そこで、本発明者は、複数のセンサ装置と、これらのセンサ装置のそれぞれとネットワーク接続されたサーバ装置と、を備える画像認識システムにおいて、サーバ装置の負荷を軽減することができる画像認識システム、及び、画像認識方法を創作した。
以下、図面を参照して、本発明の1又は複数の実施形態が説明される。しかし、発明の範囲は、開示された実施形態に限定されない。
各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し(例えば、センサ装置SU)、個別の構成を指す場合には添え字を付した参照符号で示す(例えば、センサ装置SU−1)。
実施形態に係る被監視者監視システムは、監視対象である被監視者(言い換えれば、見守り対象である見守り対象者)を複数の装置を用いて監視するシステムである。このシステムは、端末装置と、被監視者監視装置と、を備える。前記被監視者監視装置は、前記端末装置と通信可能に接続され、前記被監視者に関わる所定のイベント(事象)を検知し、前記イベントを前記端末装置へ通知する。
本明細書において、前記被監視者監視装置は、センサ装置と、前記センサ装置及び前記端末装置それぞれと通信可能に接続される管理サーバ装置とを備える。前記被監視者監視装置は、前記センサ装置と前記管理サーバ装置とが物理的に分離されており、これらが異なる場所に設置できる態様でもよいし、前記センサ装置と前記管理サーバ装置とが物理的に分離されておらず、これらが異なる場所に設置できない態様でもよい。本明細書は、前者の態様で説明する。
前記センサ装置は、前記被監視者に関わる前記所定のイベントを検知し、これを前記管理サーバ装置へ通知(報知、送信)する。前記管理サーバ装置は、前記センサ装置から前記通知を受けると、前記通知を受けた前記イベントを管理するとともに前記イベントを前記センサ装置に対応付けられた前記端末装置へ再通知(再報知、再送信)する。
前記端末装置として、2種類の装置がある。一つは、固定端末装置であり、もう一つは、携帯端末装置である。固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用され、携帯端末装置が監視者(ユーザ)に携行されて運用される点である。監視者とは、例えば、看護師や介護士である。固定端末装置と携帯端末装置とは、略同様であるので、以下では、携帯端末装置を主に説明する。なお、前記端末装置は、1種類の装置でもよい。
図1は、実施形態に係る被監視者監視システムMSの構成を説明する説明図である。被監視者監視システムMSは、例えば、複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)と、構内交換機CXと、を備え、これらは、ネットワーク(網、通信回線)NWを介して通信可能に接続される。図1に示す例では、LAN(Local Area Network)が、ネットワークNWとなる。このLANは、L2スイッチの集線装置(ハブ)LS及びアクセスポイントAPを含み、有線及び無線の混在したLANである。より詳しくは、複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SP及び構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transmission Control Protocol)及びIP(Internet Protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。構内交換機CXは、公衆電話網PNによって電話TLと接続されている。
被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設及び住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMと、ナースステーション等の複数の部屋と、を備える介護施設の建物に配設されている。
センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obに関わる前記所定のイベントを検知し、この検知した前記所定のイベントを管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。前記所定のイベントは、好ましくは、対処が必要なイベントを含む。
図1には、一例として、4個のセンサ装置SU−1〜SU−4が示されている。センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、センサ装置SU−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。
管理サーバ装置SVは、ネットワークNWを介して他の装置SU、SP、TAと通信する通信機能等を備える。管理サーバ装置SVは、センサ装置SUから前記所定のイベントを通知する通信信号(以下、第1イベント通知通信信号)を受信すると、第1イベント通知通信信号に収容された各情報に基づいて、被監視者Obに対する監視に関する監視情報を記憶(記録)し、そして、前記監視情報を収容した通信信号(以下、第2イベント通知通信信号)を生成し、第2イベント通知通信信号をセンサ装置SUに予め対応付けられた端末装置SP、TAに送信する。このために、管理サーバ装置SVは、第1イベント通知通信信号の送信元であるセンサ装置SUのIDと第2イベント通知通信信号の送信先である端末のIDとの対応関係、及び、その通信アドレスを記憶する。端末のIDは、端末装置SP、TAを識別するための識別子である。そして、管理サーバ装置SVは、クライアント(実施形態では固定端末装置SP及び携帯端末装置TA等)の要求に応じたデータをクライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。
固定端末装置SPは、被監視者監視システムMSのユーザインターフェース(UI)として機能する装置である。この機能を達成するために、固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、及び、所定の指示及びデータを入力する入力機能等を備え、管理サーバ装置SV及び携帯端末装置TAに与える所定の指示及びデータが入力されたり、センサ装置SUで得られた監視情報を表示したりする。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。
携帯端末装置TAは、監視者NSが携帯している。携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、及び、音声通話を行う通話機能等を備え、管理サーバ装置SV及びセンサ装置SUに与える所定の指示及びデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた監視情報(動画を含む)を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等をするための機器である。
実施形態に係る画像認識システムは、例えば、図1に示す被監視者監視システムMSに適用される。図2は、実施形態に係る画像認識システム1の構成を説明する説明図である。画像認識システム1は、複数のセンサ装置SUと、これらのセンサ装置SUとネットワークNWによって接続された管理サーバ装置SV(サーバ装置の一例)と、を備える。図2は、センサ装置SUの数が4つの場合が示されているが、センサ装置SUの数は、4つに限定されず、複数であればよい。
図3は、センサ装置SUの構成を示すブロック図である。センサ装置SUは、センサ側制御処理部(SU制御処理部)10、センサ側通信インターフェース部(SU通信IF部)11、撮像部12、画像記録部13、第1の画像認識部14、及び、送信データ生成部15を備える。
SU制御処理部10は、センサ装置SUの全体を統括し、SU制御処理部10の制御に従って、センサ装置SUの各部(SU通信IF部11、撮像部12、画像記録部13、第1の画像認識部14、送信データ生成部15)がそれぞれ機能を実行する。
SU制御処理部10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及び、HDD(Hard Disk Drive)等のハードウェア、並びに、SU制御処理部10の機能を実行するためのプログラムおよびデータ等によって実現される。SU制御処理部10の機能について、各機能の一部又は全部は、CPUによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、SU制御処理部10の機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。以上説明したことは、後述する画像記録部13、第1の画像認識部14、送信データ生成部15、SV制御処理部20(図5)、第2の画像認識部22(図5)、問い合わせ部16(図10)、判定部23(図11)、要求部24(図11)、第2の時系列画像生成部17(図13)、及び、第3の画像認識部25(図14)についても同様である。
SU通信IF部11は、SU制御処理部10の制御に従って、ネットワークNWを介して、図1に示す管理サーバ装置SV、固定端末装置SP、携帯端末装置TAと通信を行うための通信インターフェースである。
撮像部12は、撮像対象を撮像し、撮像対象の画像を生成する装置である。画像には、静止画及び動画が含まれる。撮像部12は、例えば、デジタル式の可視光カメラ、デジタル式の赤外線カメラである。
撮像部12は、取得部として機能する。取得部は、時系列に撮像された時系列画像Im−0を取得する。時系列画像Im−0は、撮像された時間の順に並んだ画像であり、例えば、動画像や、一定の時間間隔で撮影された画像である。時系列画像Im−0を構成するそれぞれの画像は、高解像度の画像である(例えば、解像度は、横1280画素×縦960画素である)。
なお、センサ装置SUが、撮像部12を備えない態様も可能である。この態様において、センサ装置SUは、撮像部12から送られてきた時系列画像Im−0が入力される入出力ポートを備える。この入出力ポートが取得部として機能する。
画像記録部13は、時系列画像Im−0を記録する。画像記録部13は、リングバッファ131、及び、記憶処理部132を備える。
リングバッファ131は、所定量の情報(データ)を記憶でき、新たな情報(データ)を記憶するとき、古い情報(データ)から順に破棄することにより、所定量の情報(データ)をエンドレスで記憶する機能を有する。
記憶処理部132は、撮像部12が生成した時系列画像Im−0を、リングバッファ131に記憶させる。これにより、リングバッファ131は、最新の画像から所定時間前の画像までの画像群により構成される時系列画像Im−0をエンドレスで記憶する。
第1の画像認識部14は、撮像部12が生成した時系列画像Im−0に対して、リアルタイムで画像認識処理をして、時系列画像Im−0に写された撮像対象に所定の事象が発生したか否かを推定する。センサ装置SUは、管理サーバ装置SVと比べて、情報処理能力が低い。このため、第1の画像認識部14は、例えば、深層学習を用いた画像認識処理をリアルタイムで実行できない。よって、第1の画像認識部14がリアルタイムで実行する画像認識処理は、画像認識の精度が高くない。
所定の事象の発生には、撮像対象の姿勢変化が伴う。撮像対象が、看護を必要とする者や介護を必要とする者の場合(例えば、図1に示す被監視者Ob)、撮像対象に所定の事象が発生とは、例えば、転倒、起床、離床である。撮像対象が、店内の人間の場合、撮像対象に所定の事象が発生とは、例えば、万引きである。撮像対象は、人間に限らず、動体であればよい(例えば、動物)。
被監視者Ob(撮像対象の一例)の転倒を例にして、第1の画像認識部14による画像認識処理について説明する。第1の画像認識部14は、時系列画像Im−0を構成する各画像について、例えば、背景差分法によって、各画像に写された被監視者Obのシルエット画像を生成する。背景差分法の替わりにフレーム差分法でもよい。第1の画像認識部14は、シルエット画像から、例えば円形又は楕円形のハフ変換によって、被監視者Obの頭部領域を抽出し、頭部領域の位置及び大きさから、被監視者Obの転倒を推定する。被監視者Obが転倒した場合、頭部領域は、ベッド領域と異なる位置であり、頭部領域の面積は、比較的大きい値から比較的小さい値に変化する。なお、ハフ変換の替わりに、予め用意された頭部のモデルを用いたパターンマッチングによって、被監視者Obの頭部領域が抽出されてもよい。
以上説明したように、第1の画像認識部14は、シルエット画像の面積及び位置を基にして、所定の事象の発生を推定しているが、シルエット画像の形状を基にして、所定の事象の発生を推定してもよい。これは、撮像対象の姿勢変化(例えば、人間が転倒する場合の人間の姿勢変化、人間が万引きする場合の人間の姿勢変化)を基にする。被監視者Obの転倒を例にして説明すると、第1の画像認識部14は、被監視者Obが立っている姿勢のモデル、及び、倒れている姿勢のモデルを予め用意し、これらのモデルを用いたパターンマッチングを、シルエット画像に適用する。第1の画像認識部14は、シルエット画像が、被監視者Obが立っている姿勢のモデルに一致した状態から、被監視者Obが倒れている姿勢のモデルに一致した状態に変化したとき、被監視者Obの転倒を推定する。
センサ装置SUは、情報処理能力が高くないので、第1の画像認識部14が実行する推定は、比較的精度が低い。より精度の高い推定が、管理サーバ装置SVで実行される。所定の事象が発生していても、第1の画像認識部14が所定の事象が発生していない推定をするケースを防止するために、第1の画像認識部14が、所定の事象が発生した推定をするしきい値が低く設定されている。これにより、所定の事象が発生していなくても、第1の画像認識部14が所定の事象が発生した推定をするケースが発生する。
送信データ生成部15は、第1の画像認識部14が、撮像対象に所定の事象が発生した推定をしたとき(すなわち、第1の画像認識部14が、撮像対象に所定の事象が発生した推定をしたことを前提条件)、時系列画像Im−0を用いて、第1の時系列画像Im−1を生成する。これについて詳しく説明する。図4は、第1の時系列画像Im−1を説明する説明図である。時系列画像Im−0を構成する画像101の数が、N個とする。時系列画像Im−0は、1番目の画像101、2番目の画像101、・・・、N番目の画像101が時系列に並べられた構造を有する。順番が大きくなるに従って、画像101が撮像された時刻が現在の時刻から離れる(1番目の画像101が撮像された時刻が現在に最も近く、N番目の画像101が撮像された時刻が現在から最も遠い)。時系列画像Im−0が動画像の場合、時系列画像Im−0を構成するそれぞれの画像101は、フレームである。
第1の時系列画像Im−1は、時系列画像Im−0を構成するそれぞれの画像101から撮像対象(例えば、被監視者Ob−1)の像を含む部分画像102を切り出した画像である。切り出しとは、言い換えれば、クリッピングである。第1の時系列画像Im−1を構成する部分画像102の数は、N個である。第1の時系列画像Im−1は、1番目の部分画像102、2番目の部分画像102、・・・、N番目の部分画像102が時系列に並べられた構造を有する。第1の時系列画像Im−1は、管理サーバ装置SVに送信する送信データの一例である。
図3を参照して、送信データ生成部15は、第1の画像認識部14が、撮像対象に所定の事象が発生した推定をしたとき、このときを含む所定期間(例えば、数秒間)の時系列画像Im−0をリングバッファ131から読み出し、この時系列画像Im−0を用いて、第1の時系列画像Im−1を生成する。SU通信IF部11(第1の通信部の一例)は、管理サーバ装置SVを宛先として、ネットワークNWを介して送信データ(ここでは、第1の時系列画像Im−1)を送信する。
図5は、管理サーバ装置SVの構成を示すブロック図である。管理サーバ装置SVは、管理サーバ側制御処理部(SV制御処理部)20、管理サーバ側通信インターフェース部(SV通信IF部)21、及び、第2の画像認識部22を備える。
SV制御処理部20は、管理サーバ装置SVの全体を統括し、SV制御処理部20の制御に従って、管理サーバ装置SVの各部(SV通信IF部21、第2の画像認識部22)がそれぞれ機能を実行する。
SV通信IF部21(第2の通信部の一例)は、SV制御処理部20の制御に従って、ネットワークNWを介して、図1に示すセンサ装置SU、固定端末装置SP、携帯端末装置TAと通信を行うための通信インターフェースである。SV通信IF部21(第2の通信部の一例)は、図3に示すSU通信IF部11から送信された送信データ(ここでは、第1の時系列画像Im−1)を受信する。
第2の画像認識部22は、SV通信IF部21が受信した第1の時系列画像Im−1(送信データ)に対して、第1の画像認識部14よりも画像認識の精度が高い画像認識処理をして、撮像対象に所定の事象が発生したか否かを推定する。第2の画像認識部22は、第1の画像認識部14よりも画像認識の精度が高い画像処理をするので、第1の画像認識部14よりも処理量が多い。第2の画像認識部22が実行する画像認識処理は、例えば、深層学習を用いた画像認識処理である。
深層学習を用いた画像認識処理について簡単に説明する。撮像対象が被監視者Obとし、所定の事象の発生が転倒とする。第2の画像認識部22は、被監視者Obが転倒した状態の画像と、被監視者Obが転倒していない状態の画像とを用いて、被監視者Obが転倒した状態を学習する。第2の画像認識部22は、この学習を基礎にして、第1の時系列画像Im−1に写された被監視者Obの転倒を推定する。この深層学習では、多層ニューラルネットワークとして、例えば、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)が用いられる。
実施形態に係る画像認識システム1(図2)の動作を説明する。図6は、この動作を説明するフローチャートである。撮像対象が、図1に示す被監視者Ob−1とし、所定の事象の発生が転倒とする。被監視者Ob−1を撮像するのは、センサ装置SU−1に備えられる撮像部12である。よって、以下に説明するSU制御処理部10、SU通信IF部、撮像部12、画像記録部13、第1の画像認識部14、及び、送信データ生成部15は、センサ装置SU−1に備えられる要素である。これらについては、後で説明する変形例の動作でも同じである。
図1、図3及び図6を参照して、撮像部12は、被監視者Ob−1がいる居室RMを撮像し、時系列画像Im−0を生成する。すなわち、撮像部12は、時系列画像Im−0を取得する(ステップS1)。記憶処理部132は、ステップS1で取得された時系列画像Im−0を、リングバッファ131に記憶させる。
第1の画像認識部14は、ステップS1で取得された時系列画像Im−0に対して、リアルタイムで画像認識処理をし、時系列画像Im−0に写された被監視者Ob−1が転倒したか否かを推定する(ステップS2)。
第1の画像認識部14が、被監視者Ob−1が転倒していない推定をしたとき(ステップS2でNo)、第1の画像認識部14は、ステップS2の処理を繰り返す。
第1の画像認識部14が、被監視者Ob−1が転倒した推定をしたとき(ステップS2でYes)、送信データ生成部15は、この時を含む所定期間(例えば、数秒間)の時系列画像Im−0をリングバッファ131から読み出し、この時系列画像Im−0を用いて、図4に示す第1の時系列画像Im−1を生成する(ステップS3)。
SU通信IF部11は、ステップS3で生成された第1の時系列画像Im−1を送信データとし、ネットワークNWを介して送信データを送信する(ステップS4)。この送信の宛先は、管理サーバ装置SVである。
図1、図5及び図6を参照して、SV制御処理部20は、SV通信IF部21が送信データを受信したか否かを判断する(ステップT1)。SV制御処理部20が、SV通信IF部21が送信データを受信していないと判断したとき(ステップT1でNo)、SV制御処理部20は、ステップT1の処理を繰り返す。
SV通信IF部21が、ステップS4で送信された送信データを受信したとき、SV制御処理部20は、SV通信IF部21が送信データを受信したと判断する(ステップT1でYes)。これにより、第2の画像認識部22は、SV通信IF部21で受信された送信データ(第1の時系列画像Im−1)に対して、深層学習を用いた画像認識処理をリアルタイムで実行し、被監視者Ob−1が転倒したか否かを推定する(ステップT2)。深層学習での多層ニューラルネットワークが、例えば、CNNの場合、深層学習を用いた画像認識処理には、第1の時系列画像Im−1を用いた特徴マップの生成と、特徴マップに対するプーリング処理とが含まれる。
第2の画像認識部22が、被監視者Ob−1が転倒していない推定をしたとき(ステップT2でNo)、SV制御処理部20は、ステップT1の処理を繰り返す。
第2の画像認識部22が、被監視者Ob−1が転倒した推定をしたとき(ステップT2でYes)、SV制御処理部20は、携帯端末装置TA及び固定端末装置SPを宛先として、被監視者Ob−1の転倒が発生(所定の事象の発生)したことを示す信号を、SV通信IF部21に送信させる(ステップT3)。携帯端末装置TA及び固定端末装置SPは、ネットワークNWを介してその信号を受信し、発報する。発報は、例えば、携帯端末装置TA及び固定端末装置SPが警告音を発生する。このように、携帯端末装置TA及び固定端末装置SPは、発報部として機能する。
実施形態に係る画像認識システム1(図2)の主な効果を説明する。
(1)図6を参照して、センサ装置SUが、被監視者Ob(撮像対象の一例)に所定の事象が発生した推定をしたとき(ステップS2でYes)、管理サーバ装置SVが、深層学習を用いた画像認識処理により、被監視者Obに所定の事象が発生したか否かを推定する(ステップT2)。このように、管理サーバ装置SVは、常に、深層学習を用いた画像認識処理をせずに、必要に応じて、この処理をする。よって、深層学習を用いた画像認識処理の効率化を図ることができる。
(2)ステップT2において、第1の時系列画像Im−1が、被監視者Obに所定の事象が発生したか否かの推定に用いられる。第1の時系列画像Im−1は、図4に示すように、時系列画像Im−0を構成する画像101の部分画像102により構成されるので、データ量が比較的少ない。
(1)及び(2)により、実施形態に係る画像認識システム1によれば、管理サーバ装置SVの負荷を軽減することができる。これにより、1つの管理サーバ装置SVが、複数のセンサ装置SUをクライアントとして、リアルタイムで深層学習を用いた画像認識処理をすることができる。
実施形態に係る画像認識システム1の変形例を説明する。第1変形例は、送信データとして、時系列画像Im−1の替わりに、特徴マップを生成する。すなわち、第1変形例において、図3に示す送信データ生成部15は、第1の時系列画像Im−1を生成した後、第1の時系列画像Im−1を構成する複数の部分画像102(図4)のそれぞれについて、特徴マップを生成する。図7は、特徴マップの生成工程を説明する説明図である。図4に示す部分画像102aを例にして、特徴マップの生成について説明する。
第1変形例において、図3に示す第1の画像認識部14は、CNNを備える。CNNは、中間層において、畳み込み処理とプーリング処理とを複数回繰り返し、特徴量を自動で取得するニューラルネットワークである。中間層は、複数の層を備える。図7では2つの層(Layer1、Layer2)が示されているが、3以上の層であってもよい。複数の層のそれぞれは、畳み込み層とプーリング層とを備える。
部分画像102aは、中間層に入力される入力画像である。部分画像102aは、画素数が、例えば28×28である。Layer1の畳み込み層は、部分画像102aに対して、畳み込み処理をして、複数の特徴マップ103−1を生成する。特徴マップ103−1の数は、例えば、20個である。特徴マップ103−1の画素数は、例えば24×24とする。
Layer1のプーリング層は、複数の特徴マップ103−1のそれぞれに対して、プーリング処理をする。これにより、各特徴マップ103−1の画素数が、例えば12×12となる。
Layer2の畳み込み層は、プーリング処理後の特徴マップ103−1のそれぞれに対して、畳み込み処理をして、複数の特徴マップ103−2を生成する。特徴マップ103−2の数は、例えば、50個である。特徴マップ103−2の画素数は、例えば8×8とする。
Layer2のプーリング層は、50個の特徴マップ103−2のそれぞれに対して、プーリング処理をする。これにより、各特徴マップ103−2の画素数が、例えば4×4となる。
1つの部分画像102に対して、複数の特徴マップ103が生成される。第1の時系列画像Im−1は、複数の部分画像102により構成されるので、複数の部分画像102のそれぞれについて、複数の特徴マップ103が生成されることになる。
以上説明したように、送信データ生成部15は、第1の時系列画像Im−1を構成するそれぞれの部分画像102の特徴マップ103を、送信データとして生成する。送信データとなる特徴マップ103は、Layer1で生成された特徴マップ103−1、Layer2で生成された特徴マップ103−2、Layer2以降のLayerで生成された特徴マップ(不図示)のいずれでもよい。深いLayerになるに従って、送信データのデータ量が少なくなる。例えば、特徴マップ103−2が送信データの場合、特徴マップ103−1が送信データの場合と比べて、データ量が少ない。
図8は、特徴マップ103により構成される送信データを説明する説明図である。特徴マップ103は、特徴マップ103−2を例にしている。送信データは、図4に示す1番目の部分画像102(102a)に関する50個の特徴マップ103−2、2番目の部分画像102に関する50個の特徴マップ103−2、・・・、N番目の部分画像102に関する50個の特徴マップ103−2により構成される。
第1変形例の動作を説明する。図9は、この動作を説明するフローチャートである。ステップS1及びステップS2は、図6に示すステップS1及びステップS2と同じである。
図3及び図9を参照して、送信データ生成部15は、第1の画像認識部14が被監視者Ob−1の転倒を推定したとき(ステップS2でYes)、第1の時系列画像Im−1を生成する。これは、図6に示すステップS3と同じである。送信データ生成部15は、この第1の時系列画像Im−1を構成するそれぞれの部分画像102の特徴マップ103を生成する(ステップS11)。生成された特徴マップ103が、図8に示す送信データとなる。
SU通信IF部11は、ステップS11で生成された特徴マップ103を送信データとし、ネットワークNWを介して送信データを送信する(ステップS12)。この送信の宛先は、管理サーバ装置SVである。
ステップT1は、図6に示すステップT1と同じである。
図5及び図9を参照して、SV制御処理部20は、SV通信IF部21が送信データを受信したと判断したとき(ステップT1でYes)。第2の画像認識部22は、SV通信IF部21で受信された送信データ(特徴マップ103)に対して、深層学習を用いた画像認識処理をリアルタイムで実行し、被監視者Ob−1が転倒したか否かを推定する(ステップT11)。これは、図6に示すステップT2と同様であるが、送信データは、特徴マップ103−2により構成される。このためステップT11において、図7に示すLayer1での畳み込み処理及びプーリング処理を省略することができる。
ステップT3は、図6に示すステップT3と同じである。
第1変形例の主な効果を説明する。深層学習を用いた画像認識処理には、特徴マップ103の生成が含まれる。図9を参照して、センサ装置SUが、特徴マップ103−2により構成される送信データを生成し(ステップS11)、管理サーバ装置SVが、その送信データに対して、深層学習を用いた画像認識処理をする(ステップT11)。このように、第1変形例によれば、深層学習を用いた画像認識処理を、センサ装置SUと管理サーバ装置SVとで分担している。従って、管理サーバ装置SVの負荷を軽減することができる。
第2変形例を説明する。図9に示すように、変形例1は、深層学習を用いた画像認識処理を、センサ装置SUと管理サーバ装置SVとで分担している。これを分担処理とする。これに対して、図6に示すように、実施形態に係る画像認識システム1は、管理サーバ装置SVが単独で、深層学習を用いた画像認識処理をする。これを単独処理とする。
管理サーバ装置SVは、センサ装置SUよりも、高性能である。従って、管理サーバ装置SVの負荷が低いとき、単独処理は、分担処理よりも、深層学習を用いた画像認識処理を高速化できる。これに対して、管理サーバ装置SVの負荷が高いとき、分担処理は、単独処理よりも、深層学習を用いた画像認識処理を高速化できる。変形例2は、管理サーバ装置SVの負荷が低いとき、単独処理を選択し、管理サーバ装置SVの負荷が高いとき、分担処理を選択する。
図10は、第2変形例に備えられるセンサ装置SUの構成を示すブロック図である。このセンサ装置SUは、図3に示すセンサ装置SUに、問い合わせ部16を加えた構成を有する。問い合わせ部16は、管理サーバ装置SVに対して、送信データの形式を問い合わせる。送信データの形式として、第1の時系列画像Im−1と特徴マップ103とがある。
図11は、第2変形例に備えられる管理サーバ装置SVの構成を示すブロック図である。この管理サーバ装置SVは、図5に示す管理サーバ装置SVに、判定部23及び要求部24を加えた構成を有する。
判定部23は、管理サーバ装置SVの負荷が高いことを示す予め定められた条件を満たすか否かを判定する。予め定められた条件の第1例は、管理サーバ装置SVに備えられるCPUの使用率である。判定部23は、CPUの使用率が所定の閾値を超えているとき、予め定められた条件を満たすと判定し、CPUの使用率が所定の閾値以下のとき、予め定められた条件を満たさないと判定する。
予め定められた条件の第2例は、管理サーバ装置SVに備えられるメモリ(RAM)の空き容量である。判定部23は、空き容量が所定の閾値を超えているとき、予め定められた条件を満たさないと判定し、空き容量が所定の閾値以下のとき、予め定められた条件を満たすと判定する。
予め定められた条件の第3例は、管理サーバ装置SVが使用するネットワークの回線負荷である。判定部23は、回線負荷が所定の閾値を超えているとき、予め定められた条件を満たすと判定し、回線負荷が所定の閾値以下のとき、予め定められた条件を満たさないと判定する。
予め定められた条件の第4例は、管理サーバ装置SVに備えられるGPU(Graphics Processing Unit)の負荷である。判定部23は、GPUの負荷が所定の閾値を超えているとき、予め定められた条件を満たすと判定し、GPUの負荷が所定の閾値以下のとき、予め定められた条件を満たさないと判定する。
予め定められた条件の第5例は、被監視者Obに所定の事象が発生したか否かの推定を管理サーバ装置SVに依頼しているセンサ装置SUの数である。センサ装置SUに備えられる第1の画像認識部14は、被監視者Obに所定の事象が発生した推定をしたとき、このセンサ装置SUに備えられるSU通信IF部11は、送信データを管理サーバ装置SVに送信する(図6のステップS4、図9のステップS12)。これにより、センサ装置SUは、被監視者Obに所定の事象が発生したか否かの推定を管理サーバ装置SVに依頼する(以下、推定依頼)。判定部23は、推定依頼をしているセンサ装置SUの数が所定の閾値を超えているとき、予め定められた条件を満たす判定し、推定依頼をしているセンサ装置SUの数が所定の閾値以下のとき、予め定められた条件を満たさないと判定する。
要求部24は、予め定められた条件を満たさない場合(すなわち、管理サーバ装置SVの負荷が低い状態)、複数のセンサ装置SUのうち、被監視者Obに所定の事象が発生したか否かの推定を依頼するセンサ装置SUに対して、送信データとして第1の時系列画像Im−1を要求する。これは、上記単独処理である。これに対して、要求部24は、予め定められた条件を満たす場合(すなわち、管理サーバ装置SVの負荷が高い状態)、上記依頼するセンサ装置SUに対して、送信データとして特徴マップ103を要求する。これは、上記分担処理である。
第2変形例の動作を説明する。図12は、この動作を説明するフローチャートである。ステップS1及びステップS2は、図6に示すステップS1及びステップS2と同じである。
図10、図11及び図12を参照して、第1の画像認識部14が、被監視者Ob−1の転倒を推定したとき(ステップS2でYes)、問い合わせ部16は、送信データの形式を問い合わせる信号をSU通信IF部11に送信させる(ステップS21)。問い合わせ信号の宛先は、管理サーバ装置SVである。
SV制御処理部20は、SV通信IF部21が上記問い合わせ信号を受信したか否かを判断する(ステップT21)。SV制御処理部20が、SV通信IF部21が上記問い合わせ信号を受信していないと判断したとき(ステップT21でNo)、SV制御処理部20は、ステップT21の処理を繰り返す。
SV通信IF部21が、ステップS21で送信された、問い合わせ信号を受信したとき(ステップT21でYes)、判定部23は、管理サーバ装置SVの負荷が高いことを示す予め定められた条件を満たすか否かを判定する(ステップT22)。
判定部23が、管理サーバ装置SVの負荷が高いことを示す予め定められた条件を満たさないと判定したとする(ステップT22でNo)。すなわち、管理サーバ装置SVの負荷が低い状態とする。このとき、要求部24は、送信データとして第1の時系列画像Im−1を要求する信号をSV通信IF部21に送信させる(ステップT23)。この要求信号の宛先は、センサ装置SU−1である。
判定部23が、管理サーバ装置SVの負荷が高いことを示す予め定められた条件を満たす判定をしたとする(ステップT22でYes)。すなわち、管理サーバ装置SVの負荷が高い状態とする。このとき、要求部24は、送信データとして特徴マップ103を要求する信号をSV通信IF部21に送信させる(ステップT24)。この要求信号の宛先は、センサ装置SU−1である。
SU通信IF部11が、ステップT23に示す第1の時系列画像Im−1を要求する信号を受信したとき、送信データ生成部15は、第1の時系列画像Im−1を送信データとして生成する(ステップS22)。これは、図6に示すステップS3と同じである。SU通信IF部11は、ステップS22で生成された第1の時系列画像Im−1を送信データとし、ネットワークNWを介して送信データを送信する(ステップS23)。これは、図6に示すステップS4と同じである。
SU通信IF部11が、ステップT24に示す特徴マップ103を要求する信号を受信したとき、送信データ生成部15は、特徴マップ103を送信データとして生成する(ステップS22)。これは、図9に示すステップS11と同じである。SU通信IF部11は、ステップS22で生成された特徴マップ103を送信データとし、ネットワークNWを介して送信データを送信する(ステップS23)。これは、図9に示すステップS12と同じである。
SV制御処理部20は、SV通信IF部21が送信データ(第1の時系列画像Im−1又は特徴マップ103)を受信したか否かを判断する(ステップT1)。SV制御処理部20が、SV通信IF部21が送信データを受信していないと判断したとき(ステップT1でNo)、SV制御処理部20は、ステップT1の処理を繰り返す。
SV通信IF部21が、ステップS23で送信された送信データを受信したとき、SV制御処理部20は、SV通信IF部21が送信データを受信したと判断する(ステップT1でYes)。これにより、第2の画像認識部22は、被監視者Ob−1が転倒したか否かを推定する(ステップT25)。SV通信IF部21が受信した送信データが第1の時系列画像Im−1のとき、ステップT25は、図6に示すステップT2と同じである。すなわち、第2の画像認識部22は、第1の時系列画像Im−1を構成するそれぞれの部分画像102の特徴マップ103を生成し、特徴マップ103を用いて、被監視者Ob−1に所定の事象が発生したか否かを推定する。
これに対して、SV通信IF部21が受信した送信データが特徴マップ103のとき、ステップT25は、図9に示すステップT11と同じである。すなわち、第2の画像認識部22は、特徴マップ103を用いて、被監視者Ob−1に所定の事象が発生したか否かを推定する。
ステップT25の後、管理サーバ装置SVは、ステップT3の処理をする。これは、図6に示すステップT3と同じである。
第2変形例の主な効果を説明する。ステップT25で説明したように、第2の画像認識部22は、特徴マップ103(例えば、図8に示す特徴マップ103−2により構成される送信データ)を用いて、被監視者Obに所定の事象が発生したか否かを推定する。特徴マップ103は、第1の時系列画像Im−1を用いて生成される。従って、第2の画像認識部22が特徴マップ103から画像認識処理を開始する場合、第1の時系列画像Im−1から画像認識処理を開始する場合と比べて、管理サーバ装置SVの負荷を軽減することができる。
そこで、管理サーバ装置SVの負荷が高いことを示す予め定められた条件を満たすとき(すなわち、管理サーバ装置SVの負荷が高い状態)、センサ装置SUが特徴マップ103を生成することにより(ステップS22)、第2の画像認識部22での処理量を少なくする。これにより、管理サーバ装置SVの負荷が高い状態でも、第2の画像認識部22は、被監視者Obに所定の事象が発生したか否かの推定を高速化できる。
管理サーバ装置SVは、センサ装置SUよりも、高性能である。そこで、管理サーバ装置SVの負荷が高いことを示す予め定められた条件を満たさないとき(すなわち、管理サーバ装置SVの負荷が低い状態)、特徴マップ103の生成工程も第2の画像認識部22で実行される(ステップT25)。これにより、第2の画像認識部22は、被監視者Obに所定の事象が発生したか否かの推定を高速化できる。
以上説明したように、第2変形例は、管理サーバ装置SVの負荷に応じて(ステップT22)、センサ装置SUが、送信データとして、第1の時系列画像Im−1又は特徴マップ103を選択する。これにより、第2の画像認識部22が、被監視者Obに所定の事象が発生したか否かの推定を高速化できる。
実施形態に係る画像認識システム1(図2)、第1変形例及び第2変形例において、第1の画像認識部14は、時系列画像Im−0に対して画像認識処理をしている(図6、図9及び図12に示すステップS2)。しかしながら、第1の画像認識部14は、時系列画像Im−0の解像度を下げた第2の時系列画像に対して、画像認識処理をしてもよい。この態様において、第2の時系列画像生成部がセンサ装置SUに備えられる。第2の時系列画像生成部は、撮像部12が生成した時系列画像Im−0の解像度を下げた第2の時系列画像を生成する。第1の画像認識部14は、時系列画像Im−0の替わりに、第2の時系列画像に対して画像認識処理をして、第2の時系列画像に写された被監視者Obに所定の事象が発生したか否かを推定する。第2の時系列画像は解像度が低いので、第1の画像認識部14において、画像認識の処理量を少なくできる。よって、この態様によれば、センサ装置SUの情報処理能力が低くても、画像認識をリアルタイムで実行できる。
第3変形例を説明する。第2の画像認識部22(図5、図11)は、深層学習を用いた画像認識処理をするので、処理量が多く、管理サーバ装置SVの負荷が高くなる。第2の画像認識部22による画像認識処理をできるだけ少なくすることが好ましい。第3変形例は、管理サーバ装置SVに第3の画像認識部25が備えられることにより、第2の画像認識部22による画像認識処理を少なくすることができる。
図13は、第3変形例に備えられるセンサ装置SUの構成を示すブロック図である。このセンサ装置SUは、図3に示すセンサ装置SUに、第2の時系列画像生成部17を加えた構成を有する。第2の時系列画像生成部17は、撮像部12(取得部の一例)が生成した時系列画像Im−0の解像度を下げた第2の時系列画像Im−2を生成する。例えば、時系列画像Im−0の解像度が、横1280画素×縦960画素の場合、第2の時系列画像Im−2の解像度は、横320画素×縦240画素である。
図14は、第3変形例に備えられる管理サーバ装置SVの構成を示すブロック図である。この管理サーバ装置SVは、図5に示す管理サーバ装置SVに、第3の画像認識部25を加えた構成を有する。第3の画像認識部25は、第2の時系列画像Im−2に対して、第1の画像認識部14よりも画像認識の精度が高い画像認識処理をして、被監視者Obに所定の事象が発生したか否かを推定する。第3の画像認識部25が実行する画像認識処理は、深層学習を用いた画像認識処理である。第3の画像認識部25は、深層学習を用いた画像認識処理をするので、第1の画像認識部14よりも画像認識の精度が高い。第3の画像認識部25は、解像度が低い第2の時系列画像Im−2に対して、画像認識処理をするので、第2の画像認識部22よりも画像認識の精度が低い。
第3変形例の動作を説明する。図15は、この動作を説明するフローチャートである。ステップS1は、図6に示すステップS1と同じである。
図13、図14及び図15を参照して、第2の時系列画像生成部17は、ステップS1で取得された時系列画像Im−0の解像度を下げた第2の時系列画像Im−2を生成する(ステップS31)。記憶処理部132は、ステップS31で生成された第2の時系列画像Im−2を、リングバッファ131に記憶させる。また、記憶処理部132は、第2の時系列画像Im−2の生成に用いられた時系列画像Im−0(言い換えれば、ステップS1で取得された時系列画像Im−0)を、リングバッファ131に記憶させる。
第1の画像認識部14は、ステップS31で生成された第2の時系列画像Im−2に対して、画像認識処理をして、被監視者Ob−1が転倒したか否かを推定する(ステップS32)。このステップは、画像認識処理の対象が、時系列画像Im−0でなく、第2の時系列画像Im−2であり、これ以外は、図6に示すステップS2と同じである。
第1の画像認識部14が、被監視者Ob−1の転倒を推定したとき(ステップS32でYes)、送信データ生成部15、この時を含む所定期間(例えば、数秒間)の第2の時系列画像Im−2をリングバッファ131から読み出す。
SU通信IF部11は、この読み出された第2の時系列画像Im−2を、ネットワークNWを介して送信する(ステップS33)。この送信の宛先は、管理サーバ装置SVである。
SV制御処理部20は、SV通信IF部21が第2の時系列画像Im−2を受信したか否かを判断する(ステップT31)。SV制御処理部20が、SV通信IF部21が第2の時系列画像Im−2を受信していないと判断したとき(ステップT31でNo)、SV制御処理部20は、ステップT31の処理を繰り返す。
SV通信IF部21が、ステップS33で送信された第2の時系列画像Im−2を受信したとき、SV制御処理部20は、SV通信IF部21が第2の時系列画像Im−2を受信したと判断する(ステップT31でYes)。これにより、第3の画像認識部25は、SV通信IF部21で受信された第2の時系列画像Im−2に対して、深層学習を用いた画像認識処理をリアルタイムで実行し、被監視者Ob−1が転倒したか否かを推定する(ステップT32)。
第3の画像認識部25が、被監視者Ob−1が転倒していない推定をしたとき(ステップT32でNo)、SV制御処理部20は、ステップT31の処理を繰り返す。
第3の画像認識部25が、被監視者Ob−1が転倒した推定をしたとき(ステップT32でYes)、SV制御処理部20は、センサ装置SU−1を宛先として、送信データを要求する信号を、SV通信IF部21に送信させる(ステップT33)。
SU通信IF部11が、ステップT33に示す送信データを要求する信号を受信したとき、送信データ生成部15は、第1の時系列画像Im−1を送信データとして生成する(ステップS3)。これは、図6に示すステップS3と同じである。送信データ生成部15は、ステップS31において、第2の時系列画像Im−2の生成に用いられた時系列画像Im−0を用いて、第1の時系列画像Im−1を生成する。SU通信IF部11は、ステップS3で生成された第1の時系列画像Im−1を送信データとし、ネットワークNWを介して送信データを送信する(ステップS4)。これは、図6に示すステップS4と同じである。送信データとして、第1の時系列画像Im−1を例にしているが、特徴マップ103を送信データにしてもよい。
このように、第1の画像認識部14による被監視者Ob−1の転倒の推定を前提条件とし(ステップS32でYes)、さらに、第3の画像認識部25が被監視者Ob−1の転倒を推定したとき(ステップT32でYes)、SU通信IF部11が送信データを送信する(ステップS4)。
ステップT1〜ステップT3は、図6に示すステップT1〜ステップT3と同じである。
第3変形例の主な効果を説明する。図14及び図15を参照して、第3の画像認識部25は、解像度が下げられた時系列画像である第2の時系列画像Im−2を対象として画像認識処理をするので(ステップT32)、第2の画像認識部22よりも、処理量を少なくできる。従って、管理サーバ装置SVにとって、第3の画像認識部25は第2の画像認識部22よりも、負荷が低くなる。第3の画像認識部25が被監視者Ob(撮像対象の一例)に所定の事象が発生した推定をしたとき(ステップT32でYes)、第2の画像認識部22が被監視者Obに所定の事象が発生したか否かを推定する(ステップT2)。従って、第3変形例によれば、第2の画像認識部22による画像認識処理をできるだけ少なくすることができるので、管理サーバ装置SVの負荷を低くすることができる。
(実施形態の纏め)
実施形態の第1の局面に係る画像認識システムは、複数のセンサ装置と、前記複数のセンサ装置のそれぞれとネットワーク接続されたサーバ装置と、を備える画像認識システムであって、前記複数のセンサ装置は、それぞれ、時系列に撮像された時系列画像を取得する取得部と、前記時系列画像に対して画像認識処理をして、前記時系列画像に写された撮像対象に所定の事象が発生したか否かを推定する第1の画像認識部と、前記第1の画像認識部が前記撮像対象に前記所定の事象が発生した推定をしたことを前提条件として、前記時系列画像を構成するそれぞれの画像から前記撮像対象の像を含む部分画像を切り出した第1の時系列画像、又は、前記第1の時系列画像を構成するそれぞれの前記部分画像の特徴マップを、前記サーバ装置に送信する送信データとして生成する送信データ生成部と、前記ネットワークを介して前記送信データを送信する第1の通信部と、を備え、前記サーバ装置は、前記送信データを受信する第2の通信部と、前記第2の通信部が受信した前記送信データに対して、前記第1の画像認識部よりも画像認識の精度が高い画像認識処理をして、前記撮像対象に前記所定の事象が発生したか否かを推定する第2の画像認識部と、を備える。
センサ装置に備えられる第1の画像認識部が、撮像対象に所定の事象が発生した推定をしたことを前提条件として、サーバ装置に備えられる第2の画像認識部が、第1の画像認識部よりも画像認識の精度が高い画像認識処理をして、撮像対象に所定の事象が発生したか否かを推定する。このように、第2の画像認識部は、常に、第1の画像認識部よりも画像認識の精度が高い画像認識処理をせずに、必要に応じて、この処理をする。よって、実施形態の第1の局面に係る画像認識システムによれば、第2の画像認識部が実行する画像認識処理の効率化を図ることができるので、サーバ装置の負担を軽減することができる。
撮像対象が、看護を必要とする者や介護を必要とする者の場合、撮像対象に所定の事象が発生とは、例えば、転倒、起床、離床である。撮像対象が、店内の人間の場合、撮像対象に所定の事象が発生とは、例えば、万引きである。所定の事象の発生は、例えば、姿勢で判断する(例えば、人間が転倒している姿勢、人間が万引きをしている姿勢)。
第1の画像認識部は、例えば、時系列画像に写された撮像対象のシルエット画像を生成し、シルエット画像を用いて、撮像対象に所定の事象が発生したか否かを推定する。第2の画像認識部は、送信データに対して、例えば、深層学習を用いた画像認識処理をすることにより、撮像対象に所定の事象が発生したか否かを推定する。
上記構成において、前記サーバ装置は、前記サーバ装置の負荷が高いことを示す予め定められた条件を満たすか否かを判定する判定部と、前記予め定められた条件を満たさない場合、前記複数のセンサ装置のうち、前記撮像対象に前記所定の事象が発生したか否かの推定を、前記サーバ装置に依頼するセンサ装置に対して、前記送信データとして前記第1の時系列画像を要求し、前記予め定められた条件を満たす場合、前記依頼するセンサ装置に対して、前記送信データとして前記特徴マップを要求する要求部と、をさらに備え、前記第2の画像認識部は、前記第2の通信部が受信した前記送信データが前記第1の時系列画像のとき、前記第1の時系列画像を構成するそれぞれの前記部分画像の前記特徴マップを生成し、前記特徴マップを用いて、前記撮像対象に前記所定の事象が発生したか否かを推定し、前記第2の画像認識部は、前記第2の通信部が受信した前記送信データが前記特徴マップのとき、前記特徴マップを用いて、前記撮像対象に前記所定の事象が発生したか否かを推定する。
サーバ装置の負荷が高いか否かは、次の点から定められる。第2の画像認識部は、特徴マップを用いて、撮像対象に所定の事象が発生したか否かを推定する処理をする。サーバ装置は、センサ装置よりも高性能であるので、画像処理能力が高い。サーバ装置の負荷が高くない場合、サーバ装置が特徴マップを生成するほうが、センサ装置が特徴マップを生成するよりも、第2の画像認識部の上記処理を高速化できる。これに対して、サーバ装置の負荷が高い場合、センサ装置が特徴マップを生成するほうが、サーバ装置が特徴マップを生成するよりも、第2の画像認識部の上記処理を高速化できる。よって、サーバ装置が特徴マップを生成するほうが、センサ装置が特徴マップを生成するよりも、第2の画像認識部の上記処理を高速化できる場合、サーバ装置の負荷が高くないことになる。センサ装置が特徴マップを生成するほうが、サーバ装置が特徴マップを生成するよりも、第2の画像認識部の上記処理を高速化できる場合、サーバ装置の負荷が高いことになる。
予め定められた条件の一例は、サーバ装置に備えられるCPUの使用率である。判定部は、CPUの使用率が所定の閾値を超えているとき、予め定められた条件を満たすと判定し(サーバ装置の負荷が高い)、CPUの使用率が所定の閾値以下のとき、予め定められた条件を満たさないと判定する(サーバ装置の負荷が低い)。
第2の画像認識部は、特徴マップを用いて、撮像対象に所定の事象が発生したか否かを推定する。特徴マップは、第1の時系列画像を用いて生成される。従って、第2の画像認識部が特徴マップから画像認識処理を開始する場合、第1の時系列画像から画像認識処理を開始する場合と比べて、サーバ装置の負荷を軽減することができる。そこで、サーバ装置の負荷が高いことを示す予め定められた条件を満たすとき(すなわち、サーバ装置の負荷が高い状態)、センサ装置が特徴マップを生成することにより、第2の画像認識部での処理量を少なくする。これにより、サーバ装置の負荷が高い状態でも、第2の画像認識部は、撮像対象に所定の事象が発生したか否かの推定を高速化できる。
サーバ装置は、センサ装置よりも、高性能である。そこで、サーバ装置の負荷が高いことを示す予め定められた条件を満たさないとき(すなわち、サーバ装置の負荷が低い状態)、特徴マップの生成工程も第2の画像認識部で実行される。これにより、第2の画像認識部は、撮像対象に所定の事象が発生したか否かの推定を高速化できる。
以上説明したように、この構成は、サーバ装置の負荷に応じて、センサ装置が、送信データとして、第1の時系列画像又は特徴マップを選択する。これにより、第2の画像認識部が、撮像対象に所定の事象が発生したか否かの推定を高速化できる。
上記構成において、前記複数のセンサ装置は、それぞれ、前記取得部が取得した前記時系列画像の解像度を下げた第2の時系列画像を生成する第2の時系列画像生成部をさらに備え、前記第1の画像認識部は、前記時系列画像の替わりに、前記第2の時系列画像に対して前記画像認識処理をして、前記第2の時系列画像に写された前記撮像対象に前記所定の事象が発生したか否かを推定する。
第2の時系列画像は解像度が低いので、第1の画像認識部において、画像認識の処理量を少なくできる。よって、この構成によれば、センサ装置の情報処理能力が低くても、画像認識を高速に実行できる。
上記構成において、前記第1の画像認識部が前記撮像対象に前記所定の事象が発生した推定をしたとき、前記第1の通信部は、前記ネットワークを介して前記第2の時系列画像を送信し、前記第2の通信部は、前記第2の時系列画像を受信し、前記サーバ装置は、前記第2の通信部が受信した前記第2の時系列画像に対して、前記第1の画像認識部よりも画像認識の精度が高い画像認識処理をして、前記撮像対象に前記所定の事象が発生したか否かを推定する第3の画像認識部をさらに備え、前記第1の通信部は、前記第3の画像認識部が前記撮像対象に前記所定の事象が発生した推定をしたとき、前記送信データを送信する。
この構成によれば、第1の画像認識部が撮像対象に所定の事象が発生した推定をしたことを前提条件とし、さらに、第3の画像認識部が撮像対象に所定の事象が発生した推定をしたとき、第1の通信部が送信データを送信する。
第3の画像認識部は、解像度が下げられた時系列画像である第2の時系列画像を対象として画像認識処理をするので、第2の画像認識部よりも、処理量を少なくできる。従って、サーバ装置にとって、第3の画像認識部は第2の画像認識部よりも、負荷が低くなる。第3の画像認識部が撮像対象に所定の事象が発生した推定をしたとき、第2の画像認識部が撮像対象に所定の事象が発生したか否かを推定する。従って、この構成によれば、第2の画像認識部による画像認識処理をできるだけ少なくすることができるので、サーバ装置の負荷を低くすることができる。
第3の画像認識部は、第2の時系列画像に対して、例えば、深層学習を用いた画像認識処理をすることにより、撮像対象に所定の事象が発生したか否かを推定する。
上記構成において、前記画像認識システムは、前記第2の画像認識部が、前記撮像対象に前記所定の事象が発生した推定をしたとき、発報する発報部をさらに備える。
この構成によれば、撮像対象に所定の事象が発生した推定をしたとき、これを知らせることができる。
実施形態の第2の局面に係る画像認識方法は、複数のセンサ装置と、前記複数のセンサ装置のそれぞれとネットワーク接続されたサーバ装置と、を用いる画像認識方法であって、前記複数のセンサ装置のそれぞれで実行されるステップであり、時系列に撮像された時系列画像を取得する第1のステップと、前記複数のセンサ装置のそれぞれで実行されるステップであり、前記時系列画像に対して画像認識処理をして、前記時系列画像に写された撮像対象に所定の事象が発生したか否かを推定する第2のステップと、前記複数のセンサ装置のそれぞれで実行されるステップであり、前記第2のステップにおいて、前記撮像対象に前記所定の事象が発生した推定をしたことを前提条件として、前記時系列画像を構成するそれぞれの画像から前記撮像対象の像を含む部分画像を切り出した第1の時系列画像、又は、前記第1の時系列画像を構成するそれぞれの前記部分画像の特徴マップを、前記サーバ装置に送信する送信データとして生成する第3のステップと、前記複数のセンサ装置のそれぞれで実行されるステップであり、前記ネットワークを介して前記送信データを送信する第4のステップと、前記サーバ装置で実行されるステップであり、前記送信データを受信する第5のステップと、前記サーバ装置で実行されるステップであり、前記第5のステップにおいて、受信した前記送信データに対して、前記第2のステップよりも画像認識の精度が高い画像認識処理をして、前記撮像対象に前記所定の事象が発生したか否かを推定する第6のステップと、を備える。
実施形態の第2の局面に係る画像認識方法は、実施形態の第1の局面に係る画像認識システムを方法の観点から規定しており、実施形態の第1の局面に係る画像認識システムと同様の作用効果を有する。
本発明の実施形態が詳細に図示され、かつ、説明されたが、それは単なる図例及び実例であって限定ではない。本発明の範囲は、添付されたクレームの文言によって解釈されるべきである。
明細書、クレーム、図面、及び要約を含む、2016年12月6日に提出された日本国特許出願特願2016−236669は、その全体の開示が、その全体において参照によりここに組み込まれる。
本発明によれば、画像認識システム及び画像認識方法を提供することができる。

Claims (8)

  1. 複数のセンサ装置と、前記複数のセンサ装置のそれぞれとネットワーク接続されたサーバ装置と、を備える画像認識システムであって、
    前記複数のセンサ装置は、それぞれ、
    時系列に撮像された時系列画像を取得する取得部と、
    前記時系列画像に対して画像認識処理をして、前記時系列画像に写された撮像対象に所定の事象が発生したか否かを推定する第1の画像認識部と、
    前記第1の画像認識部が前記撮像対象に前記所定の事象が発生した推定をしたことを前提条件として、前記時系列画像を構成するそれぞれの画像から前記撮像対象の像を含む部分画像を切り出した第1の時系列画像、又は、前記第1の時系列画像を構成するそれぞれの前記部分画像の特徴マップを、前記サーバ装置に送信する送信データとして生成する送信データ生成部と、
    前記ネットワークを介して前記送信データを送信する第1の通信部と、を備え、
    前記サーバ装置は、
    前記送信データを受信する第2の通信部と、
    前記第2の通信部が受信した前記送信データに対して、前記第1の画像認識部よりも画像認識の精度が高い画像認識処理をして、前記撮像対象に前記所定の事象が発生したか否かを再度推定する第2の画像認識部と、を備える画像認識システム。
  2. 前記サーバ装置は、
    前記サーバ装置の負荷が高いことを示す予め定められた条件を満たすか否かを判定する判定部と、
    前記予め定められた条件を満たさない場合、前記複数のセンサ装置のうち、前記撮像対象に前記所定の事象が発生したか否かの推定を、前記サーバ装置に依頼するセンサ装置に対して、前記送信データとして前記第1の時系列画像を要求し、前記予め定められた条件を満たす場合、前記依頼するセンサ装置に対して、前記送信データとして前記特徴マップを要求する要求部と、をさらに備え、
    前記第2の画像認識部は、前記第2の通信部が受信した前記送信データが前記第1の時系列画像のとき、前記第1の時系列画像を構成するそれぞれの前記部分画像の前記特徴マップを生成し、前記特徴マップを用いて、前記撮像対象に前記所定の事象が発生したか否かを推定し、
    前記第2の画像認識部は、前記第2の通信部が受信した前記送信データが前記特徴マップのとき、前記特徴マップを用いて、前記撮像対象に前記所定の事象が発生したか否かを推定する、請求項1に記載の画像認識システム。
  3. 前記複数のセンサ装置は、それぞれ、前記取得部が取得した前記時系列画像の解像度を下げた第2の時系列画像を生成する第2の時系列画像生成部をさらに備え、
    前記第1の画像認識部は、前記時系列画像の替わりに、前記第2の時系列画像に対して前記画像認識処理をして、前記第2の時系列画像に写された前記撮像対象に前記所定の事象が発生したか否かを推定する、請求項1又は2に記載の画像認識システム。
  4. 前記第1の画像認識部が前記撮像対象に前記所定の事象が発生した推定をしたとき、前記第1の通信部は、前記ネットワークを介して前記第2の時系列画像を送信し、
    前記第2の通信部は、前記第2の時系列画像を受信し、
    前記サーバ装置は、前記第2の通信部が受信した前記第2の時系列画像に対して、前記第1の画像認識部よりも画像認識の精度が高い画像認識処理をして、前記撮像対象に前記所定の事象が発生したか否かを推定する第3の画像認識部をさらに備え、
    前記第1の通信部は、前記第3の画像認識部が前記撮像対象に前記所定の事象が発生した推定をしたとき、前記送信データを送信する、請求項3に記載の画像認識システム。
  5. 前記第3の画像認識部は、前記第2の時系列画像に対して、深層学習を用いた画像認識処理をすることにより、前記撮像対象に前記所定の事象が発生したか否かを推定する、請求項4に記載の画像認識システム。
  6. 前記第2の画像認識部は、前記送信データに対して、深層学習を用いた画像認識処理をすることにより、前記撮像対象に前記所定の事象が発生したか否かを再度推定する、請求項1〜5のいずれか一項に記載の画像認識システム。
  7. 前記画像認識システムは、
    前記第2の画像認識部が、前記撮像対象に前記所定の事象が発生した推定をしたとき、発報する発報部をさらに備える、請求項1〜6のいずれか一項に記載の画像認識システム。
  8. 複数のセンサ装置と、前記複数のセンサ装置のそれぞれとネットワーク接続されたサーバ装置と、を用いる画像認識方法であって、
    前記複数のセンサ装置のそれぞれで実行されるステップであり、時系列に撮像された時系列画像を取得する第1のステップと、
    前記複数のセンサ装置のそれぞれで実行されるステップであり、前記時系列画像に対して画像認識処理をして、前記時系列画像に写された撮像対象に所定の事象が発生したか否かを推定する第2のステップと、
    前記複数のセンサ装置のそれぞれで実行されるステップであり、前記第2のステップにおいて、前記撮像対象に前記所定の事象が発生した推定をしたことを前提条件として、前記時系列画像を構成するそれぞれの画像から前記撮像対象の像を含む部分画像を切り出した第1の時系列画像、又は、前記第1の時系列画像を構成するそれぞれの前記部分画像の特徴マップを、前記サーバ装置に送信する送信データとして生成する第3のステップと、
    前記複数のセンサ装置のそれぞれで実行されるステップであり、前記ネットワークを介して前記送信データを送信する第4のステップと、
    前記サーバ装置で実行されるステップであり、前記送信データを受信する第5のステップと、
    前記サーバ装置で実行されるステップであり、前記第5のステップにおいて、受信した前記送信データに対して、前記第2のステップよりも画像認識の精度が高い画像認識処理をして、前記撮像対象に前記所定の事象が発生したか否かを再度推定する第6のステップと、を備える画像認識方法。
JP2018554819A 2016-12-06 2017-08-17 画像認識システム及び画像認識方法 Active JP6947187B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016236669 2016-12-06
JP2016236669 2016-12-06
PCT/JP2017/029533 WO2018105171A1 (ja) 2016-12-06 2017-08-17 画像認識システム及び画像認識方法

Publications (2)

Publication Number Publication Date
JPWO2018105171A1 JPWO2018105171A1 (ja) 2019-10-24
JP6947187B2 true JP6947187B2 (ja) 2021-10-13

Family

ID=62490850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554819A Active JP6947187B2 (ja) 2016-12-06 2017-08-17 画像認識システム及び画像認識方法

Country Status (5)

Country Link
US (1) US10846538B2 (ja)
EP (1) EP3553739B1 (ja)
JP (1) JP6947187B2 (ja)
CN (1) CN110073405B (ja)
WO (1) WO2018105171A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6611871B1 (ja) * 2018-07-12 2019-11-27 医療法人社団皓有会 監視装置
JPWO2020044683A1 (ja) * 2018-08-27 2020-09-10 日本精工株式会社 マニピュレーションシステム及びマニピュレーションシステムの駆動方法
JP7012631B2 (ja) * 2018-11-14 2022-02-14 Kddi株式会社 オブジェクト識別装置、識別システムおよび識別方法
US11256907B2 (en) * 2019-10-25 2022-02-22 Adobe Inc. Classification of subjects within a digital image
US11636744B2 (en) * 2020-02-06 2023-04-25 Shenzhen Malong Technologies Co., Ltd. Retail inventory shrinkage reduction via action recognition
US20230114160A1 (en) * 2020-03-31 2023-04-13 Nec Corporation Monitoring device, monitoring method, and recording medium
CN112560955A (zh) * 2020-12-16 2021-03-26 安徽唯嵩光电科技有限公司 一种红枣分选用图像识别系统
WO2023095196A1 (ja) * 2021-11-24 2023-06-01 日本電気株式会社 乗客監視装置、乗客監視方法、及び非一時的なコンピュータ可読媒体

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158992A (ja) 2000-11-22 2002-05-31 Fujitsu Ltd 画像配信装置、画像処理装置およびカメラ
US20030058111A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Computer vision based elderly care monitoring system
JP4478510B2 (ja) 2004-06-03 2010-06-09 キヤノン株式会社 カメラシステム、カメラ、及びカメラの制御方法
JP2007072964A (ja) 2005-09-09 2007-03-22 Ishihara Sangyo:Kk 離床予測自動感知通報方法と同自動感知通報システム
US7420472B2 (en) * 2005-10-16 2008-09-02 Bao Tran Patient monitoring apparatus
JP2008021034A (ja) 2006-07-11 2008-01-31 Fujitsu Ten Ltd 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
JP5560966B2 (ja) * 2010-07-01 2014-07-30 ソニー株式会社 顕微鏡制御装置、画像管理サーバ、画像処理方法、プログラム及び画像管理システム
JP5906028B2 (ja) * 2011-06-22 2016-04-20 キヤノン株式会社 画像処理装置、画像処理方法
EP2814246A4 (en) * 2012-02-06 2015-07-15 Panasonic Corp CAMERA DEVICE, SERVER DEVICE, IMAGE MONITORING SYSTEM, PICTURE MONITORING SYSTEM CONTROL PROGRAM AND PICTURE MONITORING SYSTEM CONTROL PROGRAM
KR101443031B1 (ko) * 2013-04-04 2014-09-23 주식회사 슈프리마 얼굴 인식 서비스 제공 방법
JP2015070401A (ja) 2013-09-27 2015-04-13 日本電気株式会社 映像処理装置、映像処理方法および映像処理プログラム
CN113205015A (zh) * 2014-04-08 2021-08-03 乌迪森斯公司 用于配置婴儿监控器摄像机的系统和方法
JP2016023669A (ja) 2014-07-17 2016-02-08 日本精工株式会社 密封転がり軸受
JP2016097088A (ja) 2014-11-21 2016-05-30 キヤノン株式会社 X線撮影システム及び情報処理方法
JP6414458B2 (ja) * 2014-12-17 2018-10-31 株式会社デンソー 演算処理装置
JP6557853B2 (ja) 2015-02-23 2019-08-14 株式会社国際電気通信基礎技術研究所 異常状態通知システム、異常状態通知プログラム、異常状態通知方法および異常状態通知装置
JP6115689B1 (ja) 2015-05-11 2017-04-19 コニカミノルタ株式会社 転倒検知装置および転倒検知方法ならびに被監視者監視装置
JP6993334B2 (ja) * 2015-11-29 2022-01-13 アーテリーズ インコーポレイテッド 自動化された心臓ボリュームセグメンテーション
US20170154246A1 (en) * 2015-11-30 2017-06-01 Seematics Systems Ltd Apparatus and method for inferring information using a computer network
US20180374570A1 (en) * 2015-12-09 2018-12-27 Konica Minolta, Inc. Central processing device and central processing method for subject observation system and subject observation system
US10002307B2 (en) * 2015-12-18 2018-06-19 Ricoh Co., Ltd. Suggestion generation based on data extraction
CN105868772A (zh) * 2016-03-23 2016-08-17 百度在线网络技术(北京)有限公司 图像识别方法及装置
US20170300742A1 (en) * 2016-04-14 2017-10-19 Qualcomm Incorporated Systems and methods for recognizing an object in an image

Also Published As

Publication number Publication date
CN110073405A (zh) 2019-07-30
US20200057891A1 (en) 2020-02-20
JPWO2018105171A1 (ja) 2019-10-24
CN110073405B (zh) 2023-06-27
US10846538B2 (en) 2020-11-24
WO2018105171A1 (ja) 2018-06-14
EP3553739B1 (en) 2023-12-06
EP3553739A1 (en) 2019-10-16
EP3553739A4 (en) 2019-12-04

Similar Documents

Publication Publication Date Title
JP6947187B2 (ja) 画像認識システム及び画像認識方法
JP6852733B2 (ja) 生体監視装置及び生体監視方法
JP6806145B2 (ja) 被監視者監視システムおよび被監視者監視方法
US20180330815A1 (en) Dynamically-adaptive occupant monitoring and interaction systems for health care facilities
JP7138619B2 (ja) 監視端末及び監視方法
JP6086468B2 (ja) 被写体見守りシステム
US11076778B1 (en) Hospital bed state detection via camera
US11943567B2 (en) Attention focusing for multiple patients monitoring
JPWO2017195839A1 (ja) 被監視者監視システム、端末装置及び被監視者監視方法
WO2020008726A1 (ja) 対象物体検出プログラム、および対象物体検出装置
JPWO2020100461A1 (ja) 被監視者監視支援システムのセンサ装置、監視画像保存方法および被監視者監視支援システム
JP6804510B2 (ja) 検知システムおよび検知システムの表示方法
JP7147787B2 (ja) 被監視者監視支援装置、被監視者監視支援方法、および、被監視者監視支援プログラム
JP7268604B2 (ja) 被監視者監視支援装置、被監視者監視支援システム、被監視者監視支援方法、および、被監視者監視支援プログラム
JPWO2019142566A1 (ja) 被監視者監視支援システムおよび被監視者監視支援方法
JP7425413B2 (ja) 被監視者監視支援装置、被監視者監視支援方法、被監視者監視支援システムおよび被監視者監視支援サーバ装置
JP6829348B1 (ja) 撮影制御方法、情報処理装置、プログラム、及び撮影システム
JP7352197B2 (ja) 移動行動異常判定装置および該方法ならびに被監視者監視支援システム
JP7120255B2 (ja) 被監視者監視支援システムおよび該方法
JP6485567B1 (ja) 適合性判定装置、適合性判定方法及びプログラム
JP6930536B2 (ja) 生体監視システム及び生体監視システムのプログラム
WO2019142449A1 (ja) 画像記録システムおよび該方法ならびに被監視者監視支援システム
JP2019212172A (ja) 被監視者監視支援システムおよび該方法ならびに中央管理装置
JP2020140418A (ja) 携帯端末の制御プログラム、携帯端末および見守りシステム
JP2019149670A (ja) メタデータ生成装置、メタデータ生成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6947187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150