JP7091007B2 - 転倒防止システム - Google Patents

転倒防止システム Download PDF

Info

Publication number
JP7091007B2
JP7091007B2 JP2020052176A JP2020052176A JP7091007B2 JP 7091007 B2 JP7091007 B2 JP 7091007B2 JP 2020052176 A JP2020052176 A JP 2020052176A JP 2020052176 A JP2020052176 A JP 2020052176A JP 7091007 B2 JP7091007 B2 JP 7091007B2
Authority
JP
Japan
Prior art keywords
person
unit
skeleton model
fall prevention
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020052176A
Other languages
English (en)
Other versions
JP2021152688A (ja
Inventor
英斗 三宅
宏二 石井
大輝 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2020052176A priority Critical patent/JP7091007B2/ja
Priority to PCT/JP2021/006974 priority patent/WO2021192793A1/ja
Priority to EP21774402.8A priority patent/EP4131197A4/en
Publication of JP2021152688A publication Critical patent/JP2021152688A/ja
Application granted granted Critical
Publication of JP7091007B2 publication Critical patent/JP7091007B2/ja
Priority to US17/902,429 priority patent/US20220414898A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Psychology (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

特許法第30条第2項適用 令和1年10月23日第46回東京モーターショー2019で発表
本発明は、転倒防止システムに関する。
従来の転倒防止システムに関する技術として、例えば、特許文献1には、検知対象である人体を表す人体画像に基づいてアピアランス特徴量を抽出し、当該アピアランス特徴量を基に人体が転倒したことを検知する転倒検知装置が開示されている。
特許第6217635号公報
ところで、上述の特許文献1に記載の転倒検知装置は、例えば、より適正な転倒防止の点で更なる改善の余地がある。
本発明は、上記の事情に鑑みてなされたものであって、適正に転倒防止を行うことができる転倒防止システムを提供することを目的とする。
上記目的を達成するために、本発明に係る転倒防止システムは、監視対象空間の画像を撮像する撮像部と、前記撮像部によって撮像された前記画像に含まれる人物を表す骨格モデルを生成する骨格モデル生成部と、前記骨格モデル生成部によって生成された前記骨格モデルに基づいて、前記骨格モデルに対応する前記人物の状態として、当該人物が立っている状態と、当該人物が座っている状態とを区別して判定する判定部と、前記判定部による判定結果に基づいて、当該判定結果に応じた処理であって前記人物の転倒を防止する転倒防止処理を実行可能である動作処理部と備え、前記骨格モデル生成部は、前記画像内において認識した前記人物が存在する領域の外側をバウンディングボックスで囲い、当該バウンディングボックス内の前記人物の人体の各骨格部位を組み合わせて当該人物の前記骨格モデルを生成し、前記判定部は、前記骨格モデル生成部によって生成された前記骨格モデルにおける前記各骨格部位の相対的な位置関係、相対距離、前記バウンディングボックスの大きさに基づいて、前記骨格モデルに対応する前記人物の状態として、当該人物が立っている状態と、当該人物が座っている状態とを区別して判定することを特徴とする。
また、上記転倒防止システムでは、案内を行う案内部を備え、前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記案内部を制御し当該人物に対して着座を案内する案内処理を実行するものとすることができる。
また、上記転倒防止システムでは、報知を行う報知部を備え、前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記報知部を制御し当該人物とは異なる他の人物に対して当該人物が立っている状態である旨を報知する第1報知処理を実行するものとすることができる。
また、上記転倒防止システムでは、前記監視対象空間の外部の外部機器と通信可能である外部通信部を備え、前記動作処理部は、前記案内処理を実行した後、予め定められた期間継続して、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記外部通信部を制御し前記外部機器に対して当該人物が立っている状態である旨を通知する第1通知処理を実行するものとすることができる。
また、上記転倒防止システムでは、車両室内空間が前記監視対象空間とされた車両に搭載された車載機器と通信可能である内部通信部を備え、前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記内部通信部を介して前記車載機器を制御し、前記車両の発進を禁止する発進禁止処理を実行するものとすることができる。
また、上記転倒防止システムでは、報知動作を行う報知部と、前記監視対象空間の外部の外部機器と通信可能である外部通信部とを備え、前記判定部は、前記骨格モデル生成部によって生成された前記骨格モデルに基づいて、前記骨格モデルに対応する前記人物の状態として、当該人物が立っている状態と、当該人物が座っている状態とに加えて、当該人物が転倒している状態も区別して判定し、前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が転倒している状態であるものと判定された場合、前記報知部を制御し当該人物とは異なる他の人物に対して当該人物が転倒している状態である旨を報知する第2報知処理、又は、前記外部通信部を制御し前記外部機器に対して当該人物が転倒している状態である旨を通知する第2通知処理を実行するものとすることができる。
本発明に係る転倒防止システムは、撮像部によって監視対象空間の画像を撮像し、骨格モデル生成部によって当該画像に含まれる人物を表す骨格モデルを生成する。そして、判定部は、骨格モデル生成部によって生成された骨格モデルに基づいて、骨格モデルに対応する人物の状態として、当該人物が立っている状態と、当該人物が座っている状態とを区別して判定する。そして、動作処理部は、判定部による判定結果に基づいて、当該判定結果に応じた転倒防止処理を実行可能である。この場合に、転倒防止システムは、上記のように、骨格モデルに基づいて、人物が立っている状態と、人物が座っている状態とを区別して判定することで、人物の状態をより詳細、かつ、正確に判定することができる。この結果、転倒防止システムは、より正確な状態判定に基づいて適正に転倒防止を行うことができる、という効果を奏する。
図1は、実施形態に係る転倒防止システムの概略構成を表すブロック図である。 図2は、実施形態に係る転倒防止システムの搭載例を表す模式的な断面図である。 図3は、実施形態に係る転倒防止システムにおける骨格モデルに基づく状態判定の一例を説明する模式図である。 図4は、実施形態に係る転倒防止システムにおける制御の一例を表すフローチャート図である。 図5は、実施形態に係る転倒防止システムにおける制御の一例を表すフローチャート図である。
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[実施形態]
図1、図2に示す本実施形態の転倒防止システム1は、監視対象空間SPに存在する人物Pの状態を監視し当該人物Pの転倒を防止するシステムである。本実施形態の転倒防止システム1は、人物Pを乗車させ輸送することが可能な車両Vに搭載される車載システムを構成する。車両Vは、車両室内空間INが転倒防止システム1による監視対象空間SPとされる。言い換えれば、本実施形態の監視対象空間SPは、人物Pを輸送することが可能な車両Vの車両室内空間INである。
本実施形態の転倒防止システム1は、上記監視対象空間SPを監視し、人物Pの状態に応じた転倒防止処理を行う構造的なモジュールである。ここでは、転倒防止システム1は、車両Vの外部に設けられる外部機器201と共に連携システムsysを構成する。連携システムsysは、車両Vに搭載される転倒防止システム1と、車両Vの外部に設けられ転倒防止システム1と相互に情報を送受信可能である外部機器201とを備える。
そして、本実施形態の転倒防止システム1は、監視対象空間SPに存在する人物Pの状態を、当該人物Pを表す骨格モデルMDL(図3参照)に基づいて判定することで、状態判定の精度を向上し、これに基づいたより適正な転倒防止を図ったものである。転倒防止システム1は、図1に示す構成要素を車両Vに搭載することで実現される。以下、各図を参照して転倒防止システム1の各構成について詳細に説明する。
なお、図1に図示する転倒防止システム1において、電力供給、制御信号、各種情報等の授受のための各構成要素間の接続方式は、特に断りのない限り、有線による接続、無線による接続のいずれであってもよい。有線による接続とは、例えば、電線や光ファイバ等の配索材を介した接続である。無線による接続とは、例えば、無線通信、非接触給電等による接続である。
また、転倒防止システム1が適用される車両Vは、電気車両(EV(Electric Vehicle))、ハイブリッド車両(HEV(Hybrid Electric Vehicle))、プラグインハイブリッド車両(PHEV(Plug-in Hybrid Electric Vehicle))、ガソリン車両、ディーゼル車両など、駆動源としてモータ又はエンジンを用いるいずれの車両であってもよい。また、当該車両Vの運転は、運転者による手動運転、半自動運転、完全自動運転等、いずれであってもよい。また、当該車両Vは、いわゆる個人が所有する自家用車、レンタカー、シェアリングカー、バス、タクシー、ライドシェアカーのいずれであってもよい。以下の説明では、一例として、車両Vは、バス、タクシー、ライドシェリングカー等、特定の事業者等によって管理され不特定多数の利用者によって利用され、利用者によって予約された乗降位置に自動で移動する完全自動運転可能な車両であるものとして説明する。完全自動運転の場合、車両Vに運転者自体が不在となる場合もありうる。また、外部機器201は、例えば、車両Vを運用する事業者等の施設に設けられる。
具体的には、転倒防止システム1は、図1、図2に示すように、撮像部2と、情報出力部3と、マイク4と、報知部5と、外部通信部6と、内部通信部7と、制御装置8とを備える。情報出力部3、報知部5、外部通信部6、内部通信部7等は、転倒防止システム1において、人物Pの転倒を防止する種々の転倒防止動作を行う動作部を構成するものである。転倒防止システム1は、例えば、これらの構成要素が筐体等に組み付けられユニット化された上で車両Vの屋根部材(ルーフ)RFに設けられることで、種々の機能を統合したオーバーヘッドモジュール(OHM:Over-Head Module)やルーフモジュール(RM:Roof Module)等を構成してもよい。また、転倒防止システム1は、例えば、各部が車両Vに個別に設けられてもよい。
撮像部2は、監視対象空間SPの画像を撮像するものである。撮像部2は、例えば、2次元画像を撮像可能な単眼カメラであってもよいし、3次元画像を撮像可能なステレオカメラであってもよい。また、撮像部2は、いわゆるTOF(Time of Flight)カメラ等であってもよい。撮像部2は、監視対象空間SPを構成する車両室内空間INの全乗員を撮像可能な位置に設けられる。撮像部2は、例えば、車両Vの車両室内空間INの上方、ここでは、屋根部材RFに配置され、撮像範囲に車両室内空間INの全領域が含まれるように画角が設定されている。撮像部2は、1つで車両室内空間INの全域をカバーできない場合には複数が設けられ当該複数によって車両室内空間INの全域をカバーするように構成されてもよい。撮像部2によって撮像された画像は、典型的には、制御装置8によって人物Pの状態判定に用いられる。
情報出力部3は、車両室内空間IN(監視対象空間SP)に向けて種々の情報を出力可能なものである。本実施形態の情報出力部3は、後述する案内動作を行う案内部を構成するものであり、各種情報を出力することで種々の案内(アナウンス)を行う。情報出力部3は、一例として、ディスプレイ3a、スピーカ3bを含んで構成される。
ディスプレイ3aは、車両室内空間INに向けて画像情報(視覚情報)を表示(出力)するものである。ディスプレイ3aは、例えば、薄型の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等によって構成される。ディスプレイ3aは、車両室内空間IN内の人物Pから目視可能な位置に画像情報を表示する。
スピーカ3bは、車両室内空間INに向けて音情報(聴覚情報)を出力するものである。スピーカ3bは、例えば、車両室内空間INにおいて、情報を提示したい特定の人物Pにのみ音情報を聴き取り可能とする指向性の高いものを用いてもよい。
なお、情報出力部3は、ディスプレイ3a、スピーカ3bの他、表示灯、インジケータ等を含んで構成されてもよい。
マイク4は、車両室内空間INで発生した音を電気信号に変換する集音装置である。マイク4は、例えば、車両室内空間INの外部の人物(例えば、後述するオペレータ等)との音声のやり取りに使用することができる。
報知部5は、後述する報知動作を行うものであり、車両室内空間IN(監視対象空間SP)の内外の人物Pに対して種々の情報を報知可能なものである。報知部5は、典型的には、転倒防止システム1による監視の対象となる人物Pとは異なる人物、例えば、車両Vにおけるサービスをサポートする人物や車両Vが手動運転車の場合には運転者等に対して各種情報を出力することで種々の報知を行う。報知部5は、上述の情報出力部3と同様に、例えば、スピーカ、ディスプレイ、表示灯、インジケータ等を含んで構成される。また、報知部5は、上述の情報出力部3が兼用されてもよい。
外部通信部6は、車両Vに搭載される無線通信機能部品であり、車両室内空間IN(監視対象空間SP)の外部の外部機器201と通信可能なものである。外部通信部6は、車両Vと当該車両Vの外部のネットワークNとを無線により接続する通信モジュール(Data Communication Module)である。
ここで、ネットワークNは、転倒防止システム1と車両Vの外部機器201とを通信可能に接続するものである。ネットワークNは、有線または無線を問わず、任意の通信網を用いることができる。外部通信部6は、ネットワークNに接続された機器と転倒防止システム1との間で情報の送受信を行う。
外部通信部6は、例えば、広域無線、狭域無線等、種々の方式の無線通信によりネットワークNを介して車両Vの外部の機器と通信可能である。ここで、広域無線の方式は、例えば、ラジオ(AM、FM)、TV(UHF、4K、8K)、TEL、GPS、WiMAX(登録商標)等である。また、狭域無線の方式は、例えば、ETC/DSRC、VICS(登録商標)、無線LAN、ミリ波通信等である。本実施形態の外部通信部6は、少なくともネットワークNを介して、当該ネットワークNに接続された外部機器201との間で情報の送受信を行う。つまり、本実施形態の外部通信部6は、車両Vの外部の機器として、少なくとも外部機器201と通信可能に構成される。
内部通信部7は、車両Vに搭載される通信中継機能部品であり、車両Vに搭載された車載機器101と通信可能なものである。内部通信部7は、車載ネットワーク等を介して車両Vに搭載されたECU(Electronic Control Unit)100や車載機器101と通信可能に構成される。つまり、内部通信部7は、車両Vに搭載されるECU100や車載機器101と種々の情報を送受信可能に構成される。
ここで、ECU100は、車載機器101等を含む車両Vの全体を統括的に制御する電子制御ユニットである。このECU100は、転倒防止システム1の一部として構成されていてもよい。言い換えれば、転倒防止システム1は、ECU100を備える構成であってもよい。車載機器101は、車両Vに搭載され、種々の機能を実現させる機器である。内部通信部7は、ECU100を介して、当該ECU100に接続された複数の車載機器101との間で情報の送受信を行う。本実施形態の複数の車載機器101は、例えば、車両Vを走行させるための種々の機器として走行系アクチュエータを含んで構成される。走行系アクチュエータは、典型的には、走行用パワートレーン、操舵装置、制動装置等を含んで構成される。走行用パワートレーンは、車両Vを走行させる駆動装置である。操舵装置は、車両Vの操舵を行う装置である。制動装置は、車両Vの制動を行う装置である。また、車載機器101は、車両Vの照明機器、空調機器、表示機器、音響機器等を含んで構成されてもよい。
制御装置8は、転倒防止システム1の各部を統括的に制御するものである。制御装置8は、車両室内空間INの状況を監視し、状況に応じて様々な対応処理を行うための種々の演算処理を実行する。制御装置8は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御装置8は、撮像部2、情報出力部3、マイク4、報知部5、外部通信部6、内部通信部7等が電気的に接続される。制御装置8は、各種の検出信号や各部を駆動させるための駆動信号等の各種の電気信号を各部との間で相互に授受することができる。
具体的には、制御装置8は、機能概念的に、インターフェース部8A、記憶部8B、及び、処理部8Cを含んで構成される。インターフェース部8A、記憶部8B、及び、処理部8Cは、電気的に接続されている各種機器との間で種々の情報を相互に授受することができる。
インターフェース部8Aは、撮像部2、情報出力部3、マイク4、報知部5、外部通信部6、内部通信部7等の転倒防止システム1の各部と種々の情報を送受信するためのインターフェースである。インターフェース部8Aは、各部との間で電線等を介して情報を有線通信する機能、各部との間で無線通信ユニット等を介して情報を無線通信する機能等を有している。
記憶部8Bは、種々の情報を記憶する記憶装置である。記憶部8Bは、例えば、ハードディスク、SSD(Solid State Drive)、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。記憶部8Bは、制御装置8での各種処理に必要な条件や情報、制御装置8で実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部8Bは、例えば、車両室内空間IN(監視対象空間SP)の人物Pの状態判定に用いられる学習済みの数理モデル等を記憶する。また、記憶部8Bは、例えば、撮像部2によって撮像された画像の画像情報、情報出力部3、報知部5から出力される出力情報、外部通信部6、内部通信部7によって受信された各種情報等を一時的に記憶することもできる。記憶部8Bは、処理部8C等によってこれらの情報が必要に応じて読み出される。
処理部8Cは、各種入力信号等に基づいて、記憶部8Bに記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する部分である。
本実施形態の処理部8Cは、車両室内空間IN(監視対象空間SP)に存在する人物Pの状態を、当該人物Pを表す骨格モデルMDL(図3参照)に基づいて判定し、当該判定結果に応じた転倒防止処理を実行可能である。
本実施形態の処理部8Cは、上記各種処理を実行するために、機能概念的に、情報処理部8a、骨格モデル生成部8b、判定部8c、及び、動作処理部8dを含んで構成される。
情報処理部8aは、転倒防止システム1で用いる種々の情報に関する処理を実行可能な機能を有する部分である。情報処理部8aは、例えば、撮像部2を制御し、車両Vの車両室内空間IN(監視対象空間SP)の画像を撮像させる処理を実行する。そして、情報処理部8aは、撮像部2によって撮像された車両室内空間INの画像情報を記憶部8Bに記憶させる処理を実行する。
また、情報処理部8aは、外部通信部6を制御し、外部機器201との間で種々の情報を送受信させる処理を実行可能である。情報処理部8aは、外部通信部6によって送信される情報を記憶部8Bから読み出す処理や外部通信部6によって受信された情報を記憶部8Bに記憶させる処理を実行可能である。例えば、情報処理部8aは、撮像部2によって撮像された画像情報やマイク4によって集音された音情報を、外部通信部6を介して外部機器201に送信させる処理を実行可能である。さらには、情報処理部8aは、ディスプレイ3a、スピーカ3bで出力させる出力情報を、外部通信部6を介して外部機器201から受信させる処理を実行可能である。転倒防止システム1は、情報処理部8aによるこれらの処理により、外部機器201と相互に情報(例えば、音声情報や画像情報等)のやり取りが可能となる。
また、情報処理部8aは、内部通信部7を制御し、車載機器101との間で種々の情報を送受信させる処理を実行可能である。情報処理部8aは、内部通信部7によって送信される情報を記憶部8Bから読み出す処理や内部通信部7によって受信された情報を記憶部8Bに記憶させる処理を実行する。また、情報処理部8aは、例えば、ECU100を介して車載機器101との間で種々の情報を送受信させる処理を実行する。例えば、情報処理部8aは、後述する動作処理部8dによって車載機器101等を動作させるための情報を、内部通信部7を介して当該車載機器101に送信させる処理を実行する。
骨格モデル生成部8bは、撮像部2によって撮像された車両室内空間IN(監視対象空間SP)の画像に含まれる人物Pを表す骨格モデルMDL(図3参照)を生成する処理を実行可能な機能を有する部分である。骨格モデルMDLは、人物Pの頭、目、鼻、口、肩、腰、足、膝、肘、手、各関節等を含む人体骨格を3次元で表した人体モデルである。
図3は、撮像部2によって撮像された車両室内空間INの画像Iの一例である。骨格モデル生成部8bは、例えば、背景差分法、Mean Shift法、パターンマッチング、各種機械学習等、種々の公知の手法を用いて、撮像部2によって撮像された画像Iから当該画像Iに含まれる人物Pを表す骨格モデルMDLを推定、生成する。
骨格モデル生成部8bは、例えば、まず人物Pを検出した後に当該人物Pの骨格を推定するトップダウン型の骨格推定によって、画像Iに含まれる人物Pを表す骨格モデルMDLを生成することができる。この場合、骨格モデル生成部8bは、種々の公知の物体認識技術を用いて、画像I内の人物Pを認識し、画像Iにおいて当該認識した人物Pが存在する領域の外側をバウンディングボックスBBで囲う処理を実行する。ここで、バウンディングボックスBBとは、画像Iにおいて認識された人物Pを囲うために必要な大きさの矩形状の枠である。そして、骨格モデル生成部8bは、当該バウンディングボックスBB内の人物Pの頭、目、鼻、口、肩、腰、足、膝、肘、手、各関節等の人体の各骨格部位(人体パーツ)の3次元位置座標を検出し、これらを組み合わせて当該人物Pの骨格モデルMDLを生成する。図3に例示する骨格モデルMDLは、人物Pの頭、目、鼻、口、肩、腰、足、膝、肘、手、各関節等の人体の各骨格部位を「点」によって象徴的に表すと共にこれらを「線」でつなぎ合わせることで生成されている。骨格モデル生成部8bは、画像Iに含まれる人物Pが複数である場合には、当該人物Pの数に応じて複数の骨格モデルMDLを生成する。
なお、骨格モデル生成部8bは、例えば、バウンディングボックスBB等を用いず画像I中の人体の各骨格部位を全て検出した後に人物Pの骨格を推定するボトムアップ型の骨格推定によって、画像Iに含まれる人物Pを表す骨格モデルを生成してもよい。この場合、骨格モデル生成部8bは、まず、種々の公知の物体認識技術を用いて、画像I中の人体の頭、目、鼻、口、肩、腰、足、膝、肘、手、各関節等の各骨格部位の3次元位置座標を全て検出する。その後、骨格モデル生成部8bは、当該検出した各骨格部位を人物Pごとにマッチングさせて繋ぎ合わせていくことで、各人物Pの骨格モデルMDLを生成する。
判定部8cは、骨格モデル生成部8bによって生成された骨格モデルMDLに基づいて、当該骨格モデルMDLに対応する人物Pの状態を判定する処理を実行可能な機能を有する部分である。本実施形態の判定部8cは、骨格モデル生成部8bによって生成された骨格モデルMDLに対応する人物Pの状態として、当該人物Pが立っている状態と、当該人物Pが座っている状態とを区別して判定する。図3に示す人物P1は、立っている状態を表しており、図3に示す人物P2は、車両室内空間IN内の座席Sに座っている状態を表している。本実施形態の判定部8cは、骨格モデル生成部8bによって生成された骨格モデルMDLに基づいて、骨格モデルMDLに対応する人物Pの状態として、当該人物Pが立っている状態と、当該人物Pが座っている状態とに加えて、当該人物Pが転倒している状態も区別して判定する。判定部8cは、撮像部2によって撮像された車両室内空間IN(監視対象空間SP)の画像Iに人物Pが含まれていた場合に、当該人物Pに対してこれらの状態判定を行う。
この転倒防止システム1は、例えば、骨格モデルMDLにおける各骨格部位の相対的な位置関係や相対距離、バウンディングボックスBBの大きさ等をパラメータとして、予め各種機械学習により、人物Pが立っている状態、座っている状態、転倒している状態を学習しておく。例えば、転倒防止システム1は、予め収集された「骨格モデルMDLにおける各骨格部位の相対的な位置関係、相対距離、バウンディングボックスBBの大きさ」等を説明変数とし 、「立っている状態であるか、座っている状態であるか、転倒している状態であるか」等を目的変数として機械学習を行う。機械学習としては、例えば、ロジスティック回帰、サポートベクトルマシン、ニューラルネットワーク、ランダムフォレスト等、本実施形態に適用可能な様々な形式のアルゴリズムを用いることができる。転倒防止システム1は、この機械学習によって得られた学習済みの状態判定用の数理モデル等を予め記憶部8Bに記憶しておく。
そして、判定部8cは、上記にように記憶部8Bに記憶されている学習済みの状態判定用の数理モデル等に基づいた分類・回帰により、骨格モデルMDLに対応する人物の状態を判定する。より具体的には、判定部8cは、実際に撮像された画像Iに含まれる人物Pの骨格モデルMDLから得られる各骨格部位の相対的な位置関係、相対距離、バウンディングボックスBBの大きさを、当該状態判定用の数理モデルに入力する。これにより、判定部8cは、骨格モデルMDLに対応する人物Pの状態として、当該人物Pが立っている状態と、当該人物Pが座っている状態と、当該人物Pが転倒している状態とを区別して判定する。
動作処理部8dは、転倒防止システム1の各部の動作を制御する処理を実行可能な機能を有する部分である。本実施形態の動作処理部8dは、判定部8cによる判定結果に基づいて、当該判定結果に応じた処理であって人物Pの転倒を防止する転倒防止処理を実行可能である。動作処理部8dは、判定部による判定結果に基づいて、動作部を構成する情報出力部3、報知部5、外部通信部6、内部通信部7等を制御し、当該判定結果に応じて転倒防止処理を実行する。
例えば、動作処理部8dは、人物Pが車両Vに乗車した後、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、転倒防止処理として案内処理を実行する。この案内処理とは、情報出力部3を制御し当該人物Pに対して着座を案内する処理である。動作処理部8dは、転倒防止処理として当該案内処理を実行することで、例えば、情報出力部3を構成するディスプレイ3aを制御し当該ディスプレイ3aによって人物Pに対して着座を促すと共に転倒防止の注意喚起を促す案内表示を行う。また、動作処理部8dは、転倒防止処理として案内処理を実行することで、例えば、情報出力部3を構成するスピーカ3bを制御し当該スピーカ3bによって人物Pに対して着座を促すと共に転倒防止の注意喚起を促す音声案内を行うようにしてもよい。
この場合、動作処理部8dは、さらに、案内処理を実行した後、予め定められた期間継続して、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、転倒防止処理として第1通知処理を実行するようにしてもよい。この第1通知処理とは、外部通信部6を制御し外部機器201に対して当該人物Pが立っている状態である旨を通知する処理である。
ここで、外部機器201について簡単に説明しておく。外部機器201は、上述したように、例えば、車両Vを運用する事業者等の施設に設けられる。外部機器201は、車両Vの外部のネットワークN上に実装されるクラウドサービス機器を構成するものであり、いわゆるクラウドサービスにおけるセンタを構成する。外部機器201は、転倒防止システム1(車両V)との間でネットワークNを介して相互に情報を送受信することができる。外部機器201は、既知のPCやワークステーションなどのコンピュータシステムに種々の処理を実現させるアプリケーションをインストールすることで構成することもできる。転倒防止システム1は、当該外部通信部6を介して外部機器201と相互に通信し連携することで当該外部機器201から様々なクラウドサービスを受けることができる。
一例として、外部機器201は、図1に例示するように、通信部202と、情報出力部203と、マイク204と、制御装置205とを備える。通信部202は、外部通信部6と同様に、ネットワークNと通信可能な通信モジュールであり、ここでは、有線/無線によりネットワークNを介して転倒防止システム1と通信可能である。情報出力部203は、情報出力部3と同様に、種々の情報を出力可能なものであり、ディスプレイ203a、スピーカ203b等を含んで構成される。マイク204は、マイク4と同様に、音を電気信号に変換する集音装置であり、車両V内の人物P等との音声のやり取りに使用する。制御装置205は、外部機器201の各部を統括的に制御するものであり、制御装置8と同様に、機能概念的に、インターフェース部205A、記憶部205B、及び、処理部205Cを含んで構成される。インターフェース部205Aは、通信部202、情報出力部203、マイク204等の外部機器201の各部と種々の情報を送受信するためのインターフェースである。記憶部205Bは、種々の情報を記憶する記憶装置である。処理部205Cは、各種入力信号等に基づいて、記憶部205Bに記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する部分である。
動作処理部8dは、転倒防止処理として当該第1通知処理を実行することで、例えば、上記のように構成される外部機器201を介して事業者のオペレータ等に対して車両Vに乗車した人物Pが未だ立っている状態であることを通知する。さらに、動作処理部8dは、通知を行った後、情報処理部8aによる処理や外部通信部6を介して当該通知先の外部機器201との間で相互通信を行うようにしてもよい。この場合、動作処理部8dは、情報出力部3、203、マイク4、204等を介して、外部機器201と車両Vとの間で各種情報(例えば、音声情報や画像情報等)をやり取りすることで、車両V側の人物Pとの外部機器201側のオペレータ等とで直接、意思の疎通を図らせることができる。これにより、動作処理部8dは、例えば、外部機器201側のオペレータ等から直接、人物Pに着座するように促すことができる。
また、動作処理部8dは、例えば、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、転倒防止処理として第1報知処理を実行するようにしてもよい。この第1報知処理とは、報知部5を制御し当該人物Pとは異なる他の人物に対して当該人物Pが立っている状態である旨を報知する処理である。動作処理部8dは、転倒防止処理として当該第1報知処理を実行することで、例えば、報知部5を構成するスピーカ、ディスプレイ、表示灯、インジケータ等を制御し、人物Pとは異なる人物、例えば、車両Vにおけるサービスをサポートする人物や車両Vが手動運転車の場合には運転者等に対して当該人物Pが立っている状態である旨を報知する。
さらに、動作処理部8dは、例えば、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、転倒防止処理として発進禁止処理を実行するようにしてもよい。この発進禁止処理とは、内部通信部7を介して車載機器101を制御し、車両Vの発進を禁止する処理である。動作処理部8dは、転倒防止処理として当該発進禁止処理を実行することで、例えば、車載機器101を構成する走行系アクチュエータ等を制御し、車両Vを発進させないようにする。
また、動作処理部8dは、例えば、判定部8cによって骨格モデルMDLに対応する人物Pが転倒している状態であるものと判定された場合、第2報知処理、又は、第2通知処理を実行するようにしてもよい。
この第2報知処理とは、報知部5を制御し当該人物Pとは異なる他の人物に対して当該人物Pが転倒している状態である旨を報知する処理である。動作処理部8dは、当該第2報知処理を実行することで、例えば、報知部5を構成するスピーカ、ディスプレイ、表示灯、インジケータ等を制御し、人物Pとは異なる人物、例えば、車両Vにおけるサービスをサポートする人物や車両Vが手動運転車の場合には運転者等に対して当該人物Pが転倒した状態である旨を報知する。
一方、第2通知処理とは、外部通信部6を制御し外部機器201に対して当該人物Pが転倒している状態である旨を通知する処理である。動作処理部8dは、当該第2通知処理を実行することで、例えば、上記のように構成される外部機器201を介して事業者のオペレータ等に対して車両Vに乗車した人物Pが転倒した状態であることを通知する。動作処理部8dは、第1通知処理の場合と同様、通知を行った後、情報処理部8aによる処理や外部通信部6を介して当該通知先の外部機器201との間で相互通信を行うようにしてもよい。これにより、動作処理部8dは、例えば、外部機器201側のオペレータ等から直接、転倒した人物Pの状態を確認させることができる。
次に、図4、図5のフローチャート図を参照して転倒防止システム1おける制御の一例について説明する。図4の制御と図5の制御とは、並行して実行されてもよいし、一方が他方に組み込まれて実行されてもよい。
図4の制御では、まず、制御装置8の情報処理部8aは、人物Pが車両Vの車両室内空間IN(監視対象空間SP)に乗車すると、撮像部2を制御し車両室内空間INの画像Iを撮像させ、撮像された画像情報を記憶部8Bに記憶させる(ステップS1)。
次に、制御装置8の骨格モデル生成部8bは、記憶部8Bに記憶された車両室内空間INの画像Iに基づいて、物体認識、骨格推定により、人物Pの各骨格部位の位置を検出し(ステップS2)、当該人物Pの骨格モデルMDLを生成する(ステップS3)。
次に、制御装置8の判定部8cは、ステップS3の処理で生成された骨格モデルMDLに基づいて、機械学習により学習済みの状態判定用の数理モデル等を用いて、骨格モデルMDLに対応する人物Pが立っている状態であるのか、座っている状態であるのかを検出する(ステップS4)。
そして、判定部8cは、骨格モデルMDLに対応する人物Pが立っている状態であるか否かを判定する(ステップS5)。判定部8cは、人物Pが立っている状態ではない、すなわち、座っている状態であると判定した場合(ステップS5:No)、この制御を終了する。
制御装置8の動作処理部8dは、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であると判定された場合(ステップS5:Yes)、転倒防止処理を実行する(ステップS6)。動作処理部8dは、転倒防止処理として、例えば、上述した案内処理、第1報知処理、発進禁止処理等を実行する。
そして、判定部8cは、ステップS6で転倒防止処理が実行された後、予め定められた期間(例えば、数分程度)経過後、骨格モデルMDLに対応する人物Pがまだ立っている状態であるか否かを判定する(ステップS7)。判定部8cは、人物Pが立っている状態ではない、すなわち、座っている状態であると判定した場合(ステップS7:No)、この制御を終了する。
動作処理部8dは、判定部8cによって骨格モデルMDLに対応する人物Pがまだ立っている状態であると判定された場合(ステップS7:Yes)、転倒防止処理として、上述した第1通知処理を実行し(ステップS8)、この制御を終了する。
図5の制御では、まず、情報処理部8aは、人物Pが車両Vの車両室内空間IN(監視対象空間SP)に乗車すると、撮像部2を制御し車両室内空間INの画像Iを撮像させ、撮像された画像情報を記憶部8Bに記憶させる(ステップS101)。
次に、骨格モデル生成部8bは、記憶部8Bに記憶された車両室内空間INの画像Iに基づいて、物体認識、骨格推定により、人物Pの各骨格部位の位置を検出し(ステップS102)、当該人物Pの骨格モデルMDLを生成する(ステップS103)。
次に、制御装置8の判定部8cは、ステップS103の処理で生成された骨格モデルMDLに基づいて、機械学習により学習済みの状態判定用の数理モデル等を用いて、骨格モデルMDLに対応する人物Pが転倒した状態であるのかを検出する(ステップS104)。
そして、判定部8cは、骨格モデルMDLに対応する人物Pが転倒した状態であるか否かを判定する(ステップS105)。判定部8cは、人物Pが転倒した状態ではない、すなわち、座っている状態か立っている状態であると判定した場合(ステップS105:No)、この制御を終了する。
動作処理部8dは、判定部8cによって骨格モデルMDLに対応する人物Pが転倒した状態であると判定された場合(ステップS105:Yes)、上述した第2報知処理、又は、第2通知処理等を実行し(ステップS106)、この制御を終了する。
以上で説明した転倒防止システム1は、撮像部2によって監視対象空間SPの画像Iを撮像し、骨格モデル生成部8bによって当該画像Iに含まれる人物Pを表す骨格モデルMDLを生成する。そして、判定部8cは、骨格モデル生成部8bによって生成された骨格モデルMDLに基づいて、骨格モデルMDLに対応する人物Pの状態として、当該人物Pが立っている状態と、当該人物Pが座っている状態とを区別して判定する。そして、動作処理部8dは、判定部8cによる判定結果に基づいて、当該判定結果に応じた転倒防止処理を実行可能である。この場合に、転倒防止システム1は、上記のように、骨格モデルMDLに基づいて、人物Pが立っている状態と、人物Pが座っている状態とを区別して判定することで、人物Pの状態をより詳細、かつ、正確に判定することができる。また、判定部8cは、人物Pを含む画像だけでなく、当該人物Pの骨格モデルMDLから姿勢や状態を判定しているため、例えば、人物Pが様々な動きをしている場合でも当該人物Pの状態をより適正に判定することができる。この結果、転倒防止システム1は、より正確な状態判定に基づいて適正に転倒防止を行うことができる。
また、以上で説明した転倒防止システム1は、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、動作処理部8dによって転倒防止処理として案内処理を実行することができる。この場合、転倒防止システム1は、立っている人物Pに対して着座を案内することができるので、人物Pの転倒を未然に防ぐことができる。
また、以上で説明した転倒防止システム1は、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、動作処理部8dによって転倒防止処理として第1報知処理を実行することができる。この場合、転倒防止システム1は、立っている人物Pとは異なる人物、例えば、車両Vにおけるサービスをサポートする人物や車両Vが手動運転車の場合には運転者等に対して立っている人物Pが存在することを報知することができる。この結果、転倒防止システム1は、サポートする人物や運転者等を通じて、人物Pの転倒を未然に防ぐことができる。
また、以上で説明した転倒防止システム1は、案内処理を実行した後、予め定められた期間継続して判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、動作処理部8dによって転倒防止処理として第1通知処理を実行してもよい。この場合、転倒防止システム1は、外部機器201を介して事業者のオペレータ等に対して立っている人物Pが存在することを通知することができる。これにより、転倒防止システム1は、例えば、外部機器201側のオペレータ等から直接、人物Pに着座するように促すことができ、人物Pの転倒を未然に防ぐことができる。
また、以上で説明した転倒防止システム1は、判定部8cによって骨格モデルMDLに対応する人物Pが立っている状態であるものと判定された場合、動作処理部8dによって転倒防止処理として発進禁止処理を実行することができる。この場合、転倒防止システム1は、監視対象空間SPである車両室内空間IN内に立っている人物Pが存在した場合には、車両Vの発進を禁止することができるので、人物Pの転倒を未然に防ぐことができる。
また、以上で説明した転倒防止システム1は、判定部8cによって骨格モデルMDLに対応する人物Pが転倒している状態であるものと判定された場合、動作処理部8dによって第2報知処理、又は、第2通知処理を実行するようにしてもよい。この場合、転倒防止システム1は、車両Vにおけるサービスをサポートする人物や車両Vが手動運転車の場合には運転者、外部機器201側のオペレータ等に対して、人物Pが転倒した事実を逸早く伝えることができるので、迅速かつ適切な処置を実施させることができる。
なお、上述した本発明の実施形態に係る転倒防止システムは、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。
以上の説明では、判定部8cは、骨格モデルMDLが表す人物Pの状態として、当該人物Pが立っている状態と、当該人物Pが座っている状態とに加えて、当該人物Pが転倒している状態も区別して判定するものとして説明したがこれに限らない。判定部8cは、骨格モデルMDLが表す人物Pの状態として、少なくとも当該人物Pが立っている状態と、当該人物Pが座っている状態とを区別して判定できるものであればよい。
以上の説明では、転倒防止システム1は、情報出力部3、マイク4、報知部5、外部通信部6、内部通信部7とを備えるものとして説明したがこれに限らず、これらのいずれかを備えない構成であってもよい。
以上の説明では、転倒防止処理は、案内処理、報知処理、第1報知処理、発進禁止処理等であるものとして説明したがこれに限らず、人物の転倒を防止する処理であれば他の処理であってもよい。
以下の説明では、一例として、車両Vは、バス、タクシー、ライドシェリングカー等、特定の事業者等によって管理され、完全自動運転可能な車両であるものとして説明したがこれに限らない。車両Vは、例えば、車両Vの運転者による運転操作に応じて車両Vの挙動が制御される手動運転可能な車両であってもよい。
以下の説明では、転倒防止システム1は、車両Vに搭載され、監視対象空間SPは、車両室内空間INであるものとして説明したがこれに限らない。転倒防止システム1は、車両V以外の施設、例えば、介護施設等に適用されてもよく、監視対象空間SPは、車両室内空間INにかえて当該施設の廊下空間や居室空間等であってもよい。
以上で説明した制御装置8は、各部が別体に構成され、当該各部が各種の電気信号を相互に授受可能に接続されることで構成されてもよく、一部の機能が他の制御装置によって実現されてもよい。また、以上で説明したプログラム、アプリケーション、各種データ等は、適宜、更新されてもよいし、転倒防止システム1に対して任意のネットワークを介して接続されたサーバに記憶されていてもよい。以上で説明したプログラム、アプリケーション、各種データ等は、例えば、必要に応じてその全部又は一部をダウンロードすることも可能である。また、例えば、制御装置8が備える処理機能については、その全部又は任意の一部を、例えば、CPU等及び当該CPU等にて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。
本実施形態に係る転倒防止システムは、以上で説明した実施形態、変形例の構成要素を適宜組み合わせることで構成してもよい。
1 転倒防止システム
2 撮像部
3 情報出力部(案内部)
3a、203a ディスプレイ
3b、203b スピーカ
4、204 マイク
5 報知部
6 外部通信部
7 内部通信部
8、205 制御装置
8A、205A インターフェース部
8B、205B 記憶部
8C、205C 処理部
8a 情報処理部
8b 骨格モデル生成部
8c 判定部
8d 動作処理部
100 ECU
101 車載機器
201 外部機器
202 通信部
203 情報出力部
BB バウンディングボックス
I 画像
IN 車両室内空間
MDL 骨格モデル
N ネットワーク
P、P1、P2 人物
RF 屋根部材
S 座席
SP 監視対象空間
sys 連携システム

Claims (6)

  1. 監視対象空間の画像を撮像する撮像部と、
    前記撮像部によって撮像された前記画像に含まれる人物を表す骨格モデルを生成する骨格モデル生成部と、
    前記骨格モデル生成部によって生成された前記骨格モデルに基づいて、前記骨格モデルに対応する前記人物の状態として、当該人物が立っている状態と、当該人物が座っている状態とを区別して判定する判定部と、
    前記判定部による判定結果に基づいて、当該判定結果に応じた処理であって前記人物の転倒を防止する転倒防止処理を実行可能である動作処理部と備え
    前記骨格モデル生成部は、前記画像内において認識した前記人物が存在する領域の外側をバウンディングボックスで囲い、当該バウンディングボックス内の前記人物の人体の各骨格部位を組み合わせて当該人物の前記骨格モデルを生成し、
    前記判定部は、前記骨格モデル生成部によって生成された前記骨格モデルにおける前記各骨格部位の相対的な位置関係、相対距離、前記バウンディングボックスの大きさに基づいて、前記骨格モデルに対応する前記人物の状態として、当該人物が立っている状態と、当該人物が座っている状態とを区別して判定することを特徴とする、
    転倒防止システム。
  2. 案内を行う案内部を備え、
    前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記案内部を制御し当該人物に対して着座を案内する案内処理を実行する、
    請求項1に記載の転倒防止システム。
  3. 報知を行う報知部を備え、
    前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記報知部を制御し当該人物とは異なる他の人物に対して当該人物が立っている状態である旨を報知する第1報知処理を実行する、
    請求項1又は請求項2に記載の転倒防止システム。
  4. 前記監視対象空間の外部の外部機器と通信可能である外部通信部を備え、
    前記動作処理部は、前記案内処理を実行した後、予め定められた期間継続して、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記外部通信部を制御し前記外部機器に対して当該人物が立っている状態である旨を通知する第1通知処理を実行する、
    請求項2に記載の転倒防止システム。
  5. 車両室内空間が前記監視対象空間とされた車両に搭載された車載機器と通信可能である内部通信部を備え、
    前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が立っている状態であるものと判定された場合、前記転倒防止処理として、前記内部通信部を介して前記車載機器を制御し、前記車両の発進を禁止する発進禁止処理を実行する、
    請求項1乃至請求項4のいずれか1項に記載の転倒防止システム。
  6. 報知動作を行う報知部と、
    前記監視対象空間の外部の外部機器と通信可能である外部通信部とを備え、
    前記判定部は、前記骨格モデル生成部によって生成された前記骨格モデルに基づいて、前記骨格モデルに対応する前記人物の状態として、当該人物が立っている状態と、当該人物が座っている状態とに加えて、当該人物が転倒している状態も区別して判定し、
    前記動作処理部は、前記判定部によって前記骨格モデルに対応する前記人物が転倒している状態であるものと判定された場合、前記報知部を制御し当該人物とは異なる他の人物に対して当該人物が転倒している状態である旨を報知する第2報知処理、又は、前記外部通信部を制御し前記外部機器に対して当該人物が転倒している状態である旨を通知する第2通知処理を実行する、
    請求項1乃至請求項5のいずれか1項に記載の転倒防止システム。
JP2020052176A 2020-03-24 2020-03-24 転倒防止システム Active JP7091007B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020052176A JP7091007B2 (ja) 2020-03-24 2020-03-24 転倒防止システム
PCT/JP2021/006974 WO2021192793A1 (ja) 2020-03-24 2021-02-25 転倒防止システム
EP21774402.8A EP4131197A4 (en) 2020-03-24 2021-02-25 FALL PROTECTION SYSTEM
US17/902,429 US20220414898A1 (en) 2020-03-24 2022-09-02 Fall prevention system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052176A JP7091007B2 (ja) 2020-03-24 2020-03-24 転倒防止システム

Publications (2)

Publication Number Publication Date
JP2021152688A JP2021152688A (ja) 2021-09-30
JP7091007B2 true JP7091007B2 (ja) 2022-06-27

Family

ID=77886532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052176A Active JP7091007B2 (ja) 2020-03-24 2020-03-24 転倒防止システム

Country Status (4)

Country Link
US (1) US20220414898A1 (ja)
EP (1) EP4131197A4 (ja)
JP (1) JP7091007B2 (ja)
WO (1) WO2021192793A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207422A1 (ja) 2017-05-08 2018-11-15 ソニー株式会社 レーザ装置組立体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010203A1 (ja) 2012-07-13 2014-01-16 日本電気株式会社 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム
JP6962280B2 (ja) * 2018-06-26 2021-11-05 株式会社デンソー 車両制御方法、車両制御システム、及び車両制御装置
JP7094814B2 (ja) * 2018-07-18 2022-07-04 株式会社日立製作所 検出システム、および検出方法
JP2020034960A (ja) * 2018-08-27 2020-03-05 株式会社シークェンス 被監視者の姿勢検知装置

Also Published As

Publication number Publication date
EP4131197A4 (en) 2023-07-19
WO2021192793A1 (ja) 2021-09-30
US20220414898A1 (en) 2022-12-29
EP4131197A1 (en) 2023-02-08
JP2021152688A (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
CN110321771B (zh) 车内监视模块以及监视系统
US11373421B1 (en) Apparatuses, systems and methods for classifying digital images
CN113168772B (zh) 信息处理装置,信息处理方法和记录介质
JP6782283B2 (ja) 監視システム
CN107415938A (zh) 基于乘员位置和注意力控制自主车辆功能和输出
JP2020003936A (ja) 車両制御方法、車両制御システム、及び車両制御装置
JP6977545B2 (ja) 自動運転システム及び移動体、サーバ
US20160090039A1 (en) Method and system of communicating vehicle information
JP2022104907A (ja) 車両内の乗員を監視し、乗員の活動を検出するためのカメラシステム
CN108284804A (zh) 一种用于车辆的移动终端设备
CN111762184A (zh) 车辆控制系统以及车辆
CN109902624A (zh) 用于呈现信息的方法和装置
JP7091007B2 (ja) 転倒防止システム
US20230234564A1 (en) Agent apparatus
US11705003B2 (en) Information processing apparatus, method, and non-transitory computer readable medium for providing comfortable in-vehicle environment
JP6378719B2 (ja) 生体情報記憶システム、及び、車内生体情報記憶装置
CN111669542B (zh) 车辆管理系统
JP2020135509A (ja) 監視通報システム
JP2019109659A (ja) 走行支援システム及び車載装置
JP7533366B2 (ja) 通知判断装置、通知判断方法および通知判断プログラム
US20240199052A1 (en) Determination device
US20230295963A1 (en) Door control device, storage medium storing computer program for door control, and method for door control
US20230347820A1 (en) Unmanned vehicle, information processing method, and information processing system
WO2022097218A1 (ja) 運転評価装置、運転評価方法、運転評価プログラム及び記録媒体

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220614

R150 Certificate of patent or registration of utility model

Ref document number: 7091007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350