JP7473016B2 - システム、情報処理装置、方法、及びプログラム - Google Patents

システム、情報処理装置、方法、及びプログラム Download PDF

Info

Publication number
JP7473016B2
JP7473016B2 JP2022570980A JP2022570980A JP7473016B2 JP 7473016 B2 JP7473016 B2 JP 7473016B2 JP 2022570980 A JP2022570980 A JP 2022570980A JP 2022570980 A JP2022570980 A JP 2022570980A JP 7473016 B2 JP7473016 B2 JP 7473016B2
Authority
JP
Japan
Prior art keywords
passenger
pole
vehicle
joint point
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022570980A
Other languages
English (en)
Other versions
JPWO2022137541A5 (ja
JPWO2022137541A1 (ja
Inventor
光太郎 村山
康博 水越
諒 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022137541A1 publication Critical patent/JPWO2022137541A1/ja
Publication of JPWO2022137541A5 publication Critical patent/JPWO2022137541A5/ja
Application granted granted Critical
Publication of JP7473016B2 publication Critical patent/JP7473016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

本開示は、システム、情報処理装置、方法、及びコンピュータ可読媒体に関する。
関連技術として、特許文献1は、公共旅客輸送における車両内の乗客の転倒を防止する車内監視装置を開示する。特許文献1に記載の車内監視装置は、バスなどの、着席又は起立した状態の乗客を輸送する車両に搭載される。車両は、複数の車内カメラと、各種の車内センサとを有する。車内カメラは、車両内の座席、乗客、及び手荷物などの画像を撮影する。車内監視装置は、車内カメラの映像を用いて、乗客がバスに乗車してから乗車位置に移動するまで、乗客の動きを追跡する。
特許文献1において、車内センサは、超音波センサ、圧力センサ、及び接触センサを含む。超音波センサは、乗客の車内での位置及び姿勢を検出するために用いられる。圧力センサは、座席の座面に設置され、乗客が座席に座っているかを検出するために用いられる。また、圧力センサ又は接触センサは、吊革及び手すりに設置され、乗客が手すり又はつり革につかまっているかを検出するために用いられる。
車内監視装置は、車内カメラ、及び車内センサを用いて、車両における乗客の乗車状態を把握する。また、車内監視装置は、車外カメラ及び車両センサを用いて、車両の走行状態を把握する。車内監視装置は、乗客の乗車状態と、車両の走行状態とに基づいて、乗客が転倒する危険性を示す危険度を判定する。
車内監視装置は、危険度に応じて、乗客の安全性に関する報知を行う。車内監視装置は、例えば、車内カメラを用いて撮影された画像を俯瞰映像に変換し、モニタに表示する。車内監視装置は、モニタの表示画面において、着席中の乗客、通路に立っている乗客、及び長時間移動していない乗客に、それぞれ異なる印しで表示する。また、車内監視装置は、通路に立っている乗客のうち、手すり又はつり革につかまっている乗客と、手すり又はつり革につかまっていない乗客とを、区別して表示する。
特開2016-062414号公報
乗合バス事業において、運転手は、乗客が安定姿勢にあるか、つまり立っている乗客がポールなどにつかまっているか否かを目視確認している。現状の運転手による手動運転だけでなく、今後の自動運転時代も見据えた乗客見守りの1つの軸として、乗客の安定姿勢判定のニーズが高まる可能性がある。
特許文献1に記載の車内監視装置は、モニタに各乗客の乗車状態を表示する。運転手は、モニタを参照することで、手すり又はつり革につかまっていない乗客などを把握することができる。しかしながら、特許文献1では、手すり及びつり革に接触センサなどのセンサが設置され、車内監視装置は、そのセンサを用いて乗客が手すり又はつり革につかまっているか否かを判断している。このため、特許文献1では、乗客がつかまることができる手すり又はつり革の全てにセンサが設置される必要がある。
本開示は、上記事情に鑑み、乗客がつかまる可能性がある複数の箇所のそれぞれに接触センサなどのセンサを設置しなくても、乗客がポールをつかんでいるか否かを判定することができるシステム、情報処理装置、方法、及びコンピュータ可読媒体を提供することを目的とする。
上記目的を達成するために、本開示は、第1の態様として、情報処理装置を提供する。情報処理装置は、移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得する骨格情報取得手段と、前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定するつかまり判定手段と、前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力するアラート出力手段とを備える。
本開示は、第2の態様として、システムを提供する。システムは、車室内を撮影するカメラを有する移動体と、移動体の乗客を監視する情報処理装置とを有する。情報処理装置は、前記カメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得する骨格情報取得手段と、前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定するつかまり判定手段と、前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力するアラート出力手段とを有する。
本開示は、第3の態様として、情報処理方法を提供する。情報処理方法は、移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得し、前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定し、前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力することを含む。
本開示は、第4の態様として、コンピュータ可読媒体を提供する。コンピュータ可読媒体は、移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得し、前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定し、前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する処理をプロセッサに実行させるためのプログラムを格納する。
本開示に係るシステム、情報処理装置、方法、及びコンピュータ可読媒体は、乗客がつかまる可能性がある複数の箇所のそれぞれに接触センサなどのセンサを設置しなくても、乗客がポールをつかんでいるか否かを判定することができる。
本開示に係るシステムを示すブロック図。 本開示の第1実施形態に係るシステムを示すブロック図。 移動体の構成例を示すブロック図。 情報処理装置の構成例を示すブロック図。 骨格情報取得部で検出される骨格構造の一例を示す模式図。 手首及び肘の関節点とポールの位置とに基づいて乗客がポールをつかんでいるか否かが判定される例を示す模式図。 手首及び肘の関節点とポールの位置とに基づいて乗客がポールをつかんでいるか否かが判定される別の例を示す模式図。 移動体内における乗客とポールとを模式的に示す模式図。 車内カメラが撮影する車内映像を模式的に示す模式図。 床上での乗客とポールとの位置関係を模式的に示す模式図。 ポールが床に接していない場合の車内映像を模式的に示す模式図。 情報処理装置における動作手順を示すフローチャート。 第2実施形態において用いられる移動体の構成を示すブロック図。 コンピュータ装置の構成例を示すブロック図。
本開示の実施の形態の説明に先立って、本開示の概要を説明する。図1は、本開示に係るシステムを示す。システム10は、移動体30、及び情報処理装置50を有する。移動体30は、車室内を撮影するカメラ31を有する。情報処理装置50は、移動体30に乗車する乗客を監視する。情報処理装置50は、骨格情報取得手段51、つかまり判定手段52、及びアラート出力手段53を有する。
骨格情報取得手段51は、カメラ31から取得される車内映像を解析し、移動体30に乗車する1以上の乗客のそれぞれの骨格情報を取得する。つかまり判定手段52は、乗客の骨格情報と、移動体30内のポールの位置とに基づいて、乗客がポールをつかんでいるか否かを判定する。アラート出力手段53は、乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する。
本開示において、つかまり判定手段52は、カメラ31の映像から取得された乗客の骨格情報を用いて、乗客がポールをつかんでいるか否かを判定する。本開示では、乗客がポールをつかんでいるか否かの判定に、カメラ31の映像が用いられる。このため、本開示は、乗客がつかまる可能性がある複数の箇所のそれぞれに接触センサなどのセンサを設置しなくても、乗客が安全な乗車姿勢であるか否かを判定できる。情報処理装置50は、乗客がポールをつかんでいないと判定した場合にアラートを出力する。このようにすることで、情報処理装置50は、移動体30の安全な運行に寄与できる。
以下、本開示の実施の形態を詳細に説明する。図2は、本開示の第1実施形態に係るシステムを示す。システム(乗客監視システム)100は、情報処理装置110、遠隔監視装置130、及び移動体200を有する。システム100において、情報処理装置110及び遠隔監視装置130は、ネットワーク150を介して移動体200と接続される。ネットワーク150は、例えば、LTE(Long Term Evolution)などの通信回線規格を用いた無線通信網を含む。ネットワーク150は、WiFi(登録商標)又は第5世代移動通信システムなどの無線通信網を含んでいてもよい。システム100は、図1に示されるシステム10に対応する。
移動体200は、例えば乗り合いバスなどの乗客を乗せて走行する車両として構成される。移動体200は、乗り合いバスには限定されず、例えば路面電車などの、乗客が立って乗車することが可能な車両であってもよい。移動体200は、車室内を撮影する1以上の車内カメラ201を有する。図2では、移動体200が、車両の前方及び後方から車室内を撮影する2つの車内カメラ201を有する例が示されている。移動体200は、図1に示される移動体30に対応する。車内カメラ201は、図1に示されるカメラ31に対応する。
情報処理装置110は、移動体200の乗客を監視する装置である。情報処理装置110は、ネットワーク150を介して移動体200から車内カメラ201の映像を受信する。情報処理装置110は、受信した車内カメラ201の映像を解析し、乗客が安全な乗車状態であるか否かを見守る。情報処理装置110は、乗客の見守りの結果を移動体200に送信する。情報処理装置110は、図1に示される情報処理装置50に対応する。
遠隔監視装置130は、移動体200の運行を遠隔で監視する装置である。情報処理装置110は、乗客の見守りの結果を移動体200に送信するのに加えて、又はこれに代えて、乗客の見守りの結果を遠隔監視装置130に送信してもよい。なお、移動体200の運行を遠隔で監視する必要がない場合、遠隔監視装置130は省略可能である。別の言い方をすると、システム100は、遠隔監視装置130を有していなくてもよい。
図3は、移動体200の構成例を示す。移動体200は、1以上の車内カメラ201、車両情報取得部202、通信装置203、及び表示装置204を有する。移動体200において、これら構成要素は車内LAN(Local Area Network)やCAN(Controller Area Network)などを介して相互に通信可能に構成される。
車内カメラ201は、移動体200の内部を撮影するカメラである。車内カメラ201は、特に乗客が乗車するエリアを撮影する。車内カメラ201は、例えば移動体200の車室内の天井に配置される。車両情報取得部202は、移動体200の各種情報を取得する。車両情報取得部202は、例えば移動体200の車両センサから、車速、操舵角、アクセルペダルの開度、及びブレーキペダルの踏み込み量などの情報を取得する。また、車両情報取得部202は、方向指示器の作動状態、及びドアの開閉状態などの情報を取得する。
通信装置203は、移動体200とネットワーク150(図2を参照)との間で無線通信を行う装置として構成される。通信装置203は、無線通信用アンテナ、送信機、及び受信機を含む。通信装置203は、車内カメラ201の映像を、ネットワーク150を介して情報処理装置110及び遠隔監視装置130に送信する。
また、通信装置203は、移動体200の各種情報を、ネットワーク150を介して情報処理装置110及び遠隔監視装置130に送信する。通信装置203は、例えば車両情報取得部202が取得した車速、方向指示器の作動状態、及びドアの開閉状態を、車両情報として情報処理装置110及び遠隔監視装置130に送信する。通信装置203は、移動体200の位置情報を情報処理装置110及び遠隔監視装置130に送信してもよい。なお、情報処理装置110に送信される情報と、遠隔監視装置130に送信される情報とは、同一の情報でなくてもよい。
移動体200は、図3には図示されない、移動体200の周辺状況を監視する周辺監視センサを有していてもよい。周辺監視センは、例えばカメラ、レーダ、及びLiDAR(Light Detection and Ranging)などを含む。周辺監視センサは、例えば車両の前方、後方、右側方、及び左側方を撮影する複数のカメラを含んでいてもよい。通信装置203は、周辺監視センサが取得した車両外部の映像などを、ネットワーク150を介して遠隔監視装置130に送信してもよい。遠隔監視装置130は、移動体200から受信した映像、及び各種情報を表示装置に表示する。監視員は、表示装置に表示された映像及び各種情報を参照し、移動体200の遠隔監視を行う。
図4は、情報処理装置110の構成例を示す。乗客見守り装置である情報処理装置110は、映像取得部111、車両情報取得部112、骨格情報取得部113、ポール位置取得部114、つかまり判定部115、及びアラート出力部116を有する。映像取得部111は、移動体200から、車内カメラ201を用いて撮影された車内映像を受信する。車両情報取得部112は、移動体200から、車両情報を受信する。映像取得部111及び車両情報取得部112は、それぞれ、複数の移動体200から車内映像及び車両情報を受信してもよい。
骨格情報取得部113は、車内カメラ201の映像(画像)を解析し、車両に乗車する1以上の乗客のそれぞれの骨格情報を取得する。骨格情報取得部113は、移動体200が複数の車内カメラ201を有する場合、複数の車内カメラの映像のそれぞれに対して解析を行う。例えば、骨格情報取得部113は、映像取得部111が取得した車内カメラ201の映像(画像)から、画像内の人物(乗客)の2次元の骨格構造を推定する。骨格情報取得部113は、画像に含まれる各乗客について、骨格構造を推定する。骨格情報取得部113は、例えば、機械学習を用いた骨格推定技術を用いて、各乗客の関節などの特徴に基づいて各乗客の骨格構造を検出する。骨格構造の検出には、例えばOpenPoseなどの公知の骨格推定技術が用いられ得る。骨格情報取得部113は、図1に示される骨格情報取得手段51に対応する。
図5は、骨格情報取得部113で検出される骨格構造の一例を示す。骨格情報取得部113は、例えば、移動体200の車内映像から各乗客の画像を抽出する。骨格情報取得部113は、抽出した画像から、乗客の関節点の座標データを骨格構造として検出する。図5において、検出された関節点は黒丸で示される。骨格情報取得部113は、検出した骨格構造から、特に、手首の関節点301、及び肘の関節点302の位置を検出する。骨格情報取得部113は、乗客の骨格構造を示す情報を、骨格情報として取得する。
ポール位置取得部(ポール位置取得手段)114は、移動体200の車内に存在するポールの位置を示す情報をポール位置情報として取得する。ポール位置取得部114は、例えば移動体200の車内映像から、ポール位置情報を取得する。ポール位置取得部114は、例えば色に基づいて車内映像に含まれるポールの領域を識別する。日本において、「標準仕様ノンステップバス」では、縦握り棒(ポール)の色には特定色(オレンジ色)が使用されると定められている。ポール位置取得部114は、オレンジ色の棒状の物体の領域を、ポールの領域として識別してもよい。ポール位置取得部114は、例えば乗客が乗車していない状態の車内映像からポール位置情報を取得してもよい。あるいは、ポール位置取得部114は、図示しない記憶装置から、あらかじめ登録されているポール位置情報を読み出してもよい。
つかまり判定部115は、骨格情報取得部113が取得した乗客の骨格情報と、ポール位置取得部114が取得したポール位置情報とに基づいて、乗客がポールをつかんでいるか否かを判定する。つかまり判定部115は、更に、つり革などの位置情報を更に用いて、乗客がポール及びつり革の少なくとも一方をつかんでいるか否かを判定してもよい。つかまり判定部115は、図1に示されるつかまり判定手段52に対応する。
つかまり判定部115は、例えば、車内映像における、手首の関節点301(図5を参照)と、ポールとの間の距離に基づいて、乗客がポールをつかんでいるか否かを判定する。つかまり判定部115は、例えば、手首の関節点301からポールまでの最短距離を求める。つかまり判定部115は、求めた最短距離が所定の距離しきい値以下の場合、乗客がポールをつかんでいると判定する。
つかまり判定部115は、手首の関節点301の位置及び肘の関節点302の位置と、ポールの位置との関係に基づいて、乗客がポールをつかんでいるか否かを判定してもよい。例えば、つかまり判定部115は、手首の関節点301の位置と肘の関節点302の位置とに基づいて、手のひらが存在する範囲を推定する。つかまり判定部115は、推定した範囲にポールが存在するか否かに応じて、乗客がポールをつかんでいるか否かを推定してもよい。
図6は、手首及び肘の関節点とポールの位置とに基づいて乗客がポールをつかんでいるか否かが判定される例を示す。つかまり判定部115は、手首の関節点301と肘の関節点302とを結ぶ直線の長さLを求める。つかまり判定部115は、手首の関節点301及び肘の関節点302を通る直線上で、手首の関節点301から、肘の関節点302と反対側に距離Lをk倍(0<k<1)した距離(kL)だけ離れた位置に、点303を置く。つかまり判定部115は、手首の関節点301と点303との間に、手のひらが存在すると推定する。つかまり判定部115は、手首の関節点301と点303とを結ぶ直線が、ポール401と交わるか否かを判断する。つかまり判定部115は、手首の関節点301と点303との間にポール401が存在する場合、乗客はポール401をつかんでいると判定する。
図7は、手首及び肘の関節点とポールの位置とに基づいて乗客がポールをつかんでいるか否かが判定される別の例を示す。この例では、つかまり判定部115は、手首の関節点301を基点に、肘の関節点302とは反対側に、点303を通る扇形の領域304を設定する。つかまり判定部115は、領域304の範囲に手のひらが存在すると推定する。つかまり判定部115は、領域304に、ポール401の一部が含まれるか否かを判断する。つかまり判定部115は、領域304にポール401の一部が含まれる場合、乗客はポール401をつかんでいると判定する。
ここで、車内映像において、手前のポールと奥の乗客とが重なり、実際には乗客がポールをつかんでいないものの、乗客の手首の関節点とポールとが重なる場合がある。図8は、移動体200内における乗客とポールとを模式的に示す。ここでは、移動体200の車内に、ポール401-403の3本のポールがあるとする。また、移動体200には、乗客411及び412の2人の乗客がいるとする。乗客411は、ポール401をつかんでいるものとする。これに対し、乗客412は、手に何かを持っており、どのポールもつかんでいないものとする。車内カメラ201は、移動体200の前方から、移動体200の車室内を撮影する。
図9は、車内カメラ201が撮影する車内映像を模式的に示す。図9に示される例において、乗客411は、ポール401をつかんでいるため、手首の関節点がポール401に近い。この場合、つかまり判定部115は、手首の関節点とポール401との距離に基づいて、乗客411がポール401をつかんでいることを判定できる。一方、乗客412について、乗客412はポールをつかんでいないものの、車内映像において、乗客412の手首付近はポール402と重なっている。このため、つかまり判定部115は、乗客412がポール402をつかんでいると誤判定する可能性がある。
上記誤判定を避けるために、つかまり判定部115は、移動体200の内部にあるポールのうち、各乗客がつかむことができるポールを抽出し、各乗客が抽出されたポールをつかんでいるか否かを判定してもよい。つかまり判定部115は、例えば移動体200の車室の床上での各乗客の位置、及び床上での各ポールの位置を特定する。つかまり判定部115は、例えば、映像においてどの部分が床に対応しているかを識別するための床情報を用いて、床上での各乗客の位置、及び床上での各ポールの位置を特定する。あるいは、各乗客の床上での位置は、車内カメラ201の画角及び焦点距離などを用いて、車内カメラ201の映像から特定できる。各ポールの床上での位置についても、同様に、車内カメラ201の画角及び焦点距離などを用いて、車内カメラ201の映像から特定できる。各ポールの床上での位置は、あらかじめ用意されていてもよい。
つかまり判定部115は、例えば、床上での各乗客の位置と床上での各ポールの位置との位置関係に基づいて、各乗客がつかむことができるポールを抽出する。つかまり判定部115は、例えば、床上における各乗客と各ポールとの距離を求める。つかまり判定部115は、床上において、乗客の位置から、その乗客の腕が届く範囲に存在するポールを、乗客がつかむことができるポールとして抽出する。つかまり判定部115は、骨格構造の推定結果から乗客の身長を推定し、推定した身長から乗客の腕の長さを推定してもよい。つかまり判定部115は、乗客の腕が届く範囲にポールが存在しない場合、その乗客がつかむことができるポールはないと判定する。
図10は、床上での乗客とポールとの位置関係を模式的に示す。乗客411について、つかまり判定部115は、乗客411の周りに、推定した腕の長さに応じて、乗客411の腕が届く範囲421を設定する。つかまり判定部115は、床上でのポールの位置が範囲421に含まれるポール401を、乗客411がつかむことができるポールとして抽出する。つかまり判定部115は、例えば、乗客411の手首の関節点の位置と、ポール401の位置とに基づいて、乗客411がポール401をつかんでいるか否かを判定する。つかまり判定部115は、ポール402及び403については、判定から除外する。
乗客412について、つかまり判定部115は、乗客412の周りに、推定した腕の長さに応じて、乗客412の腕が届く範囲422を設定する。図10において、ポール401-403の床上での位置は、何れも範囲422の外側にある。この場合、つかまり判定部115は、乗客412がつかむことができるポールはないと判断する。このように、床上での乗客とポールとの位置関係に基づいて、判定の対象とするポールを限定することで、車内映像上で乗客とポールとが重なる場合でも、誤判定を抑制できる。
なお、立って乗車している乗客の足は床に接していると考えられる。このため、つかまり判定部115は、車内映像から、乗客の床上での位置を特定できると考えられる。しかしながら、ポールは、座席や壁に固定されている場合があり、必ずしも床に取り付けられているとは限らない。ポールが床に取り付けられていない場合、つかまり判定部115は、ポールを、仮想的に、床面の方向に延長し、ポールの床上での位置を特定してもよい。
図11は、ポールが床に接していない場合の車内映像を模式的に示す。図11において、ポール404は、車室の天井と、側壁とに固定されており、床面に接していない。その場合、つかまり判定部115は、ポール404の縦方向の部分を床面まで仮想的に延長し、ポール404の延長部分と床面との交点を、床上でのポール404の位置405として特定する。つかまり判定部115は、床上での乗客411の位置と、位置405との位置関係に基づいて、乗客411がポール404をつかむことができるか否かを判断すればよい。
図4に戻り、アラート出力部116は、つかまり判定部115から判定結果を取得する。アラート出力部116は、乗客が、移動体200内で立っており、かつポールなどをつかんでいないと判定されている場合、安全ではない姿勢の乗客がいることを示す警告を、移動体200に送信する。アラート出力部116は、乗客がポールなどをつかんでいないと判定された乗客の位置を示す情報を、移動体200に送信してもよい。アラート出力部116は、移動体200に加えて、又はこれに代えて、遠隔監視装置130に警告を送信することができる。アラート出力部116は、図1に示されるアラート出力手段53に対応する。
アラート出力部116は、車両情報取得部112から車両情報を取得し、車両情報に基づいて所定の発報条件が満たされているか否かを判断してもよい。アラート出力部116は、例えば、車両情報に基づいて移動体200の運行状態を特定する。アラート出力部116は、特定した運行状態が、発報条件として設定された運行状態を示すか否かを判断してもよい。アラート出力部116は、発報条件が満たされている場合、移動体200などに警告を送信してもよい。
例えば、アラート出力部116は、車速を含む車両情報に基づいて、移動体200が走行中であるか否かを特定する。アラート出力部116は、移動体200の走行中にポールなどをつかんでいない乗客がいると判定された場合、移動体200に警告を送信してもよい。また、アラート出力部116は、ドアの開閉状態を含む車両情報に基づいて、移動体200が発進する直前であるか否かを特定してもよい。アラート出力部116は、例えば、バス停においてドアが閉じられた場合、移動体200が発進する直前であると特定する。アラート出力部116は、移動体200が発進する直前にポールなどをつかんでいない乗客がいると判定された場合、移動体200に警告を送信してもよい。
移動体200において、通信装置203(図3を参照)は、安全ではない姿勢の乗客がいること、及びその位置などを示す情報を受信する。表示装置204は、安全ではない姿勢の乗客がいること、及びその位置などを表示し、移動体200の運転手に危険を知らせる。運転手は、必要に応じて、「手すりにおつかまりください」などのアナウンスを行う。あるいは、移動体200は図示しない自動放送装置を用いて、「手すりにおつかまりください」などのアナウンスを行ってもよい。運転手は、発進の直前に危険が知らされた場合、乗客が手すりをつかむまで、移動体200を発進させない。
続いて、動作手順を説明する。図12は、情報処理装置(乗客見守り装置)110における動作手順(情報処理方法)を示す。映像取得部111は、移動体200から、車内カメラ201の映像(車内映像)を受信する(ステップS1)。映像取得部111は、受信した映像を、骨格情報取得部113及びポール位置取得部114に出力する。車両情報取得部112は、移動体200から、車両情報取得部202(図3を参照)などで取得された車両情報を受信する(ステップS2)。車両情報取得部112は、受信した車両情報をアラート出力部116に出力する。
骨格情報取得部113は、ステップS1で受信された車内映像から、各乗客の骨格情報を取得する(ステップS3)。骨格情報取得部113は、ステップS3では、特に乗客の手首の関節点、及び肘の関節点の位置を取得する。ポール位置取得部114は、車内映像から、ポールの位置を取得する(ステップS4)。
つかまり判定部115は、ステップS3で取得された骨格情報と、ステップS4で取得されたポールの位置とに基づいて、乗客がポールなどをつかんでいるか否かを判定する(ステップS5)。つかまり判定部115は、判定の結果をアラート出力部116に出力する。
アラート出力部116は、ステップS5の判定の結果に基づいて、ポールなどをつかんでいない乗客がいるか否かを判断する(ステップS6)。アラート出力部116は、ポールなどをつかんでいない乗客がいないと判断した場合、処理を終了する。アラート出力部116は、ステップS2で受信された車両情報に基づいて、所定の発報条件が満たされているか否かを判断する(ステップS7)。アラート出力部116は、所定の発報条件が満たされていると判断した場合、安全ではない姿勢の乗客がいることを示す警告を、移動体200及び遠隔監視装置130に送信する(ステップS8)。乗客見守り装置110は、ステップS1からステップS8までの処理を、繰り返し実施する。
なお、上記動作手順において、ステップS1からステップS8の一部は、必ずしも上記した順序で実施される必要はない。例えば、ステップS1とステップS2とは、どちらが先に実施されてもよい。また、ステップS2で受信される車両情報は、ステップS7で発報条件が満たされるか否かの判断に使用される。このため、ステップS2は、ステップS3からステップS7の直前までの任意のタイミングで実施され得る。あるいは、ステップS2は、ステップS1からステップS6までの何れかのステップと並列に実施されてもよい。また、ステップS3とステップS4とは、どちらが先に実施されてもよいし、並列に実施されてもよい。
本実施形態では、骨格情報取得部113は、移動体200の車内カメラ201に映像から、乗客の骨格情報を取得する。つかまり判定部115は、乗客の骨格情報と、ポールの位置情報とを用いて、乗客がポールをつかんでいるか否かを判定する。本実施形態では、映像から取得された骨格情報を用いて乗客がポールをつかんでいるか否かが判断される。このようにすることで、車内の複数の箇所に接触センサや圧力センサなどのセンサが設置されていなくても、乗客見守り装置110は、乗客がポールなどをつかんでいるか否かを判定することができる。また、本実施形態では、移動体200において、運転手の目視に頼らず、ポールをつかんでいない乗客を発見することができる。
本実施形態において、アラート出力部116は、乗客がポールをつかんでいないと判定された場合、移動体200及び遠隔監視装置130にアラートを出力する。乗客がポールなどをつかんでいない場合に、移動体200の運転手などに警告することで、運転手は、目視で確認しなくても、ポールをつかんでいない乗客がいることを知ることができる。運転手は、必要に応じて速度を落とす、或いは乗客にポールをつかむように促すことで、移動体200を、移動体200における乗客の転倒などの危険性を低下させることができる。また、本実施形態において、アラート出力部116は、所定の発報条件が満たされた場合に、アラートを出力する。この場合、アラート出力部116は、乗客がポールをつかんでいない場合に転倒などが起こる危険が高い場合に、アラートを出力することができる。
続いて、本開示の第2実施形態を説明する。本開示の第2実施形態に係るシステムの構成は、図2に示される第1実施形態で説明した情報処理装置(乗客見守り装置)110の構成と同様でよい。本実施形態において、移動体は、自動運転が可能に構成される。他の構成は、第1実施形態において説明された構成と同様でよい。
図13は、第2実施形態において用いられる移動体の構成を示す。本実施形態において、移動体200aは、図3に示される第1実施形態で用いられる移動体200の構成に加えて、自動運転ECU(Electric Control Unit)205、及び放送装置206を有する。自動運転ECU205は、移動体200の自動運転を制御する電子制御装置である。自動運転ECU205は、図示しない周辺監視センサ及び車両センサからセンサ情報を取得し、取得したセンサ情報に基づいて移動体200の自律走行を制御する。放送装置206は、移動体200の車内に各種放送を行う。
本実施形態において、乗客見守り装置110のアラート出力部116(図4を参照)は、移動体200a及び遠隔監視装置130にアラートを出力する。移動体200aにおいて、通信装置203は、乗客見守り装置110から、アラートを受信する。自動制御ECU205は、アラートが受信された場合、自動運転のパラメータを、アラートが受信される前の自動運転のパラメータから変更する。自動運転ECU205は、例えばアラートが受信された場合、移動体200における安全レベルを上げる。自動運転ECU205は、安全レベルを上げることで、例えば移動体200の速度を低下させる。あるいは、移動体200における速度の変化を緩やかにする。自動運転ECU205は、バス停などで停車中にアラートが受信された場合、移動体200を発進させない。放送装置206は、アラートが受信された場合、「手すりにおつかまりください」などのアナウンスを行い、乗客にポールをつかむことを促す。
遠隔監視装置130は、乗客見守り装置110から、アラートを受信する。遠隔監視装置130は、アラートが受信された場合、監視員に、移動体200aにポールをつかんでいない乗客がいることを知らせる。監視員は、移動体200aに、転倒の危険がある乗客がいることを知ることができる。その場合、監視員は、移動体200aの運転を、自動運転から遠隔運転に切り替え、移動体200aを遠隔で操作してもよい。
本実施形態では、移動体200aは、自動運転が可能に構成される。本実施形態では、移動体200aにポールをつかんでいない乗客がいる場合、遠隔監視装置130にアラートが出力される。このようにすることで、監視員は、自動運転される移動体200aが安全に運行されているか否かを見守ることができる。また、アラートが出力された場合、移動体200aにおいて、放送装置206は、乗客にポールをつかむことを促す放送を行う。放送を聞いた乗客がポールをつかむことで、移動体200aを安全に運行することができる。
なお、上記各実施形態では、乗客見守り装置110がネットワーク150を介して移動体200に接続される例を説明した。しかしながら、本開示は、これには限定されない。例えば、乗客見守り装置110は、移動体200に搭載されていてもよい。また、乗客見守り装置110は、必ずしも1つの装置として構成されている必要はなく、複数の装置を用いて構成されてもよい。例えば、乗客見守り装置110は、映像取得部111、骨格情報取得部113、及びポール位置取得部114を含む第1の装置と、車両情報取得部112、つかまり判定部115、及びアラート出力部116を含む第2の装置とを用いて構成されていてもよい。その場合において、第1の装置は移動体200に搭載され、第2の装置はネットワーク150を介して第1の装置と接続されていてもよい。
乗客見守り装置110は、複数の移動体200から車内映像を受信し、各移動体について、乗客がポールをつかんでいるか否かを判定してもよい。その場合、乗客見守り装置110における処理負荷の軽減のため、骨格情報の取得、ポールの位置情報の取得、及びつかまり判定の少なくとも一部は各移動体200において行われることとしてもよい。
続いて、乗客見守り装置110の物理的な構成を説明する。本開示において、乗客見守り装置110はコンピュータ装置(サーバ装置)として構成され得る。図14は、乗客見守り装置110として用いられ得るコンピュータ装置の構成例を示す。コンピュータ装置500は、制御部(CPU:Central Processing Unit)510、記憶部520、ROM(Read Only Memory)530、RAM(Random Access Memory)540、通信インタフェース(IF:Interface)550、及びユーザインタフェース560を有する。乗客見守り装置110は、CPU510、ROM530、及びRAM540を含む電子制御装置として構成されていてもよい。
通信インタフェース550は、有線通信手段又は無線通信手段などを介して、コンピュータ装置500と通信ネットワークとを接続するためのインタフェースである。ユーザインタフェース560は、例えばディスプレイなどの表示部を含む。また、ユーザインタフェース560は、キーボード、マウス、及びタッチパネルなどの入力部を含む。
記憶部520は、各種のデータを保持できる補助記憶装置である。記憶部520は、必ずしもコンピュータ装置500の一部である必要はなく、外部記憶装置であってもよいし、ネットワークを介してコンピュータ装置500に接続されたクラウドストレージであってもよい。
ROM530は、不揮発性の記憶装置である。ROM530には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。CPU510が実行するプログラムは、記憶部520又はROM530に格納され得る。記憶部520又はROM530は、例えば乗客見守り装置110内の各部の機能を実現するための各種プログラムを記憶する。
上記プログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータ装置500に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体を含む。非一時的なコンピュータ可読媒体の例は、例えばフレキシブルディスク、磁気テープ、又はハードディスクなどの磁気記録媒体、例えば光磁気ディスクなどの光磁気記録媒体、CD(compact disc)、又はDVD(digital versatile disk)などの光ディスク媒体、及び、マスクROM、PROM(programmable ROM)、EPROM(erasable PROM)、フラッシュROM、又はRAMなどの半導体メモリを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体を用いてコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
RAM540は、揮発性の記憶装置である。RAM540には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM540は、データなどを一時的に格納する内部バッファとして用いられ得る。CPU510は、記憶部520又はROM530に格納されたプログラムをRAM540に展開し、実行する。CPU510がプログラムを実行することで、乗客見守り装置110内の各部の機能が実現され得る。CPU510は、データなどを一時的に格納できる内部バッファを有してもよい。
以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得する骨格情報取得手段と、
前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定するつかまり判定手段と、
前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力するアラート出力手段とを備える情報処理装置。
[付記2]
前記骨格情報は、前記乗客の手首の関節点の位置を示す情報を含む付記1に記載の情報処理装置。
[付記3]
前記つかまり判定手段は、前記車内映像において、前記手首の関節点から前記ポールまでの最短距離がしきい値以下の場合、前記乗客は前記ポールにつかんでいると判定する付記2に記載の情報処理装置。
[付記4]
前記骨格情報取得手段は、前記車内映像に基づいて前記乗客の骨格構造を推定し、該推定した骨格構造に基づいて前記手首の関節点の位置を検出する付記2又は3に記載の情報処理装置。
[付記5]
前記骨格情報は、前記乗客の肘の関節点の位置を示す情報を更に含み、
前記つかまり判定手段は、前記車内映像において、前記肘の関節点と前記手首の関節点とを通る直線上で、かつ前記手首の関節点から、前記肘の関節点とは反対側に前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点と、前記手首の関節点との間に前記ポールが存在する場合、前記乗客はポールをつかんでいると判定する付記2に記載の情報処理装置。
[付記6]
前記骨格情報は、前記乗客の肘の関節点の位置を示す情報を更に含み、
前記つかまり判定手段は、前記車内映像において、前記手首の関節点を基点として、前記肘の関節点とは反対側に、前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点を通る扇形の領域に、前記ポールの一部が存在する場合、前記乗客はポールをつかんでいると判定する付記2に記載の情報処理装置。
[付記7]
前記骨格情報取得手段は、前記車内映像に基づいて前記乗客の骨格構造を推定し、該推定した骨格構造に基づいて前記肘の関節点の位置及び前記手首の関節点の位置を検出する付記5又は6に記載の情報処理装置。
[付記8]
前記車内映像に基づいて前記ポールの位置を取得するポール位置取得手段を更に有する付記1から7何れか1つに記載の情報処理装置。
[付記9]
前記ポール位置取得手段は、色情報を用いて、前記車内映像における前記ポールの領域を識別し、前記ポールの位置を検出する付記8に記載の情報処理装置。
[付記10]
前記つかまり判定手段は、前記移動体の車室の床上における前記乗客の位置、及び前記ポールの位置を特定し、前記床上における前記乗客の位置と前記床上における前記ポールの位置との位置関係に基づいて、前記乗客がつかむことができるポールを抽出し、前記乗客が前記抽出したポールにつかんでいるか否かを判定する付記1から9何れか1つに記載の情報処理装置。
[付記11]
前記つかまり判定手段は、前記床上における前記乗客の位置から、前記乗客の腕が届く範囲に存在するポールを、前記乗客がつかむことができるポールとして抽出する付記10に記載の情報処理装置。
[付記12]
前記つかまり判定手段は、前記骨格情報に基づいて前記乗客の身長を推定し、該推定した乗客の身長に応じて前記乗客の腕が届く範囲を設定する付記11に記載の情報処理装置。
[付記13]
前記つかまり判定手段は、前記車内映像において前記ポールが前記車室内の床に取り付けられていない場合、前記ポールを前記床の方向に延長し、前記ポールの前記床上での位置を推定する付記10から12何れか1つに記載の情報処理装置。
[付記14]
前記アラート出力手段は、前記移動体から受信した車両情報に基づいて、所定の発報条件が満たされているか否かを判断し、前記つかまり判定手段が前記乗客がポールにつかんでいないと判断した場合で、かつ前記発報条件が満たされていると判断した場合、前記アラートを出力する付記1から13何れか1つに記載の情報処理装置。
[付記15]
前記車両情報は前記移動体の速度を示す情報を含み、
前記アラート出力手段は、前記車両情報に基づいて前記移動体が走行中であるか否かを判断し、前記移動体が走行中であると判断した場合、前記発報条件が満たされていると判断する付記14に記載の情報処理装置。
[付記16]
前記車両情報は前記移動体のドアの開閉状態を示す情報を含み、
前記アラート出力手段は、前記車両情報に基づいて前記移動体においてドアが閉じられたか否かを判断し、前記ドアが閉じられたと判断した場合、前記発報条件が満たされていると判断する付記14又は15に記載の情報処理装置。
[付記17]
前記アラート出力手段は、前記移動体に前記アラートを出力する付記1から16何れか1つに記載の情報処理装置。
[付記18]
前記アラート出力手段は、前記移動体を遠隔で監視する遠隔監視装置に、前記アラートを出力する付記1から17何れか1つに記載の情報処理装置。
[付記19]
車室内を撮影するカメラを有する移動体と、
前記移動体の乗客を監視する情報処理装置とを有し、
前記情報処理装置は、
前記カメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得する骨格情報取得手段と、
前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定するつかまり判定手段と、
前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力するアラート出力手段とを有する、システム。
[付記20]
前記骨格情報は、前記乗客の手首の関節点の位置を示す情報を含み、
前記つかまり判定手段は、前記車内映像において、前記手首の関節点から前記ポールまでの最短距離がしきい値以下の場合、前記乗客は前記ポールにつかんでいると判定する付記19に記載のシステム。
[付記21]
前記骨格情報は、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含み、
前記つかまり判定手段は、前記車内映像において、前記肘の関節点と前記手首の関節点とを通る直線上で、かつ前記手首の関節点から、前記肘の関節点とは反対側に前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点と、前記手首の関節点との間に前記ポールが存在する場合、前記乗客はポールをつかんでいると判定する付記19に記載のシステム。
[付記22]
前記骨格情報は、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含み、
前記つかまり判定手段は、前記車内映像において、前記手首の関節点を基点として、前記肘の関節点とは反対側に、前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点を通る扇形の領域に、前記ポールの一部が存在する場合、前記乗客はポールをつかんでいると判定する付記19に記載のシステム。
[付記23]
前記アラート出力手段は、前記移動体にアラートを出力する付記19から22何れか1つに記載のシステム。
[付記24]
前記移動体は、自動運転が可能に構成され、前記移動体が自動運転で運転されている場合で、かつ前記アラート出力手段から前記アラートが出力された場合、前記自動運転のパラメータを、前記アラートが出力される前の自動運転のパラメータから変更する付記23に記載のシステム。
[付記25]
前記移動体を遠隔で監視する遠隔監視装置を更に有し、
前記アラート出力手段は、前記遠隔監視装置にアラートを出力する付記19から24何れか1つに記載のシステム。
[付記26]
移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得し、
前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定し、
前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する情報処理方法。
[付記27]
移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得し、
前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定し、
前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する処理をプロセッサに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
10:システム
30:移動体
31:カメラ
50:情報処理装置
51:骨格情報取得手段
52:つかまり判定手段
53:アラート出力手段
100:システム
110:情報処理装置(乗客見守り装置)
111:映像取得部
112:車両情報取得部
113:骨格情報取得部
114:ポール位置取得部
115:つかまり判定部
116:アラート出力部
130:遠隔監視装置
200:移動体
201:車内カメラ
202:車両情報取得部
203:通信装置
204:表示装置
205:自動運転ECU
206:放送装置
301:手首の関節点
302:肘の関節点
401-404:ポール
411、412:乗客

Claims (12)

  1. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得する骨格情報取得手段と、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定するつかまり判定手段と、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力するアラート出力手段とを備え
    前記骨格情報は、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含み、
    前記つかまり判定手段は、前記車内映像において、前記肘の関節点と前記手首の関節点とを通る直線上で、かつ前記手首の関節点から、前記肘の関節点とは反対側に前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点と、前記手首の関節点との間に前記ポールが存在する場合、前記乗客はポールをつかんでいると判定する、情報処理装置。
  2. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得する骨格情報取得手段と、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定するつかまり判定手段と、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力するアラート出力手段とを備え、
    前記骨格情報は、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含み、
    前記つかまり判定手段は、前記車内映像において、前記手首の関節点を基点として、前記肘の関節点とは反対側に、前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点を通る扇形の領域に、前記ポールの一部が存在する場合、前記乗客はポールをつかんでいると判定する情報処理装置。
  3. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得する骨格情報取得手段と、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記乗客が前記ポールをつかんでいるか否かを判定するつかまり判定手段と、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力するアラート出力手段とを備え、
    前記つかまり判定手段は、前記移動体の車室の床上における前記乗客の位置、及び前記ポールの位置を特定し、前記床上における前記乗客の位置と前記床上における前記ポールの位置との位置関係に基づいて、前記乗客がつかむことができるポールを抽出し、前記乗客が前記抽出したポールにつかんでいるか否かを判定する情報処理装置。
  4. 前記骨格情報取得手段は、前記車内映像に基づいて前記乗客の骨格構造を推定し、該推定した骨格構造に基づいて前記手首の関節点の位置を検出する請求項1又は2に記載の情報処理装置。
  5. 前記アラート出力手段は、前記移動体から受信した車両情報に基づいて、所定の発報条件が満たされているか否かを判断し、前記つかまり判定手段が前記乗客がポールにつかんでいないと判断した場合で、かつ前記発報条件が満たされていると判断した場合、前記アラートを出力する請求項1から何れか1項に記載の情報処理装置。
  6. 車室内を撮影するカメラを有する移動体と、
    請求項1から5何れか1項に記載の情報処理装置とを有するシステム。
  7. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報であって、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含む骨格情報を取得し、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記車内映像において、前記肘の関節点と前記手首の関節点とを通る直線上で、かつ前記手首の関節点から、前記肘の関節点とは反対側に前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点と、前記手首の関節点との間に前記ポールが存在するか否かに応じて、前記乗客が前記ポールをつかんでいるか否かを判定し、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する情報処理方法。
  8. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報であって、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含む骨格情報を取得し、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記手首の関節点を基点として、前記肘の関節点とは反対側に、前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点を通る扇形の領域に、前記ポールの一部が存在するか否かに応じて、前記乗客が前記ポールをつかんでいるか否かを判定し、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する情報処理方法。
  9. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得し、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記移動体の車室の床上における前記乗客の位置、及び前記ポールの位置を特定し、前記床上における前記乗客の位置と前記床上における前記ポールの位置との位置関係に基づいて、前記乗客がつかむことができるポールを抽出し、前記乗客が前記抽出したポールにつかんでいるか否かを判定し、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する情報処理方法。
  10. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報であって、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含む骨格情報を取得し、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記車内映像において、前記肘の関節点と前記手首の関節点とを通る直線上で、かつ前記手首の関節点から、前記肘の関節点とは反対側に前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点と、前記手首の関節点との間に前記ポールが存在するか否かに応じて、前記乗客が前記ポールをつかんでいるか否かを判定し、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する処理をプロセッサに実行させるためのプログラム。
  11. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報であって、前記乗客の手首の関節点の位置を示す情報、及び前記乗客の肘の関節点の位置を示す情報を含む骨格情報を取得し、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記手首の関節点を基点として、前記肘の関節点とは反対側に、前記肘の関節点と前記手首の関節点との間の距離に所定の係数を乗算した距離だけ離れた点を通る扇形の領域に、前記ポールの一部が存在するか否かに応じて、前記乗客が前記ポールをつかんでいるか否かを判定し、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する処理をプロセッサに実行させるためのプログラム。
  12. 移動体の車室内を撮影するカメラから取得される車内映像を解析し、前記移動体に乗車する1以上の乗客のそれぞれの骨格情報を取得し、
    前記乗客の骨格情報と、前記移動体内のポールの位置とに基づいて、前記移動体の車室の床上における前記乗客の位置、及び前記ポールの位置を特定し、前記床上における前記乗客の位置と前記床上における前記ポールの位置との位置関係に基づいて、前記乗客がつかむことができるポールを抽出し、前記乗客が前記抽出したポールにつかんでいるか否かを判定し、
    前記乗客が前記ポールをつかんでいないと判断された場合、アラートを出力する処理をプロセッサに実行させるためのプログラム。
JP2022570980A 2020-12-25 2020-12-25 システム、情報処理装置、方法、及びプログラム Active JP7473016B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/048844 WO2022137541A1 (ja) 2020-12-25 2020-12-25 システム、情報処理装置、方法、及びコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2022137541A1 JPWO2022137541A1 (ja) 2022-06-30
JPWO2022137541A5 JPWO2022137541A5 (ja) 2023-09-08
JP7473016B2 true JP7473016B2 (ja) 2024-04-23

Family

ID=82157992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022570980A Active JP7473016B2 (ja) 2020-12-25 2020-12-25 システム、情報処理装置、方法、及びプログラム

Country Status (4)

Country Link
US (1) US20240054674A1 (ja)
EP (1) EP4250262A4 (ja)
JP (1) JP7473016B2 (ja)
WO (1) WO2022137541A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062414A (ja) 2014-09-19 2016-04-25 クラリオン株式会社 車内監視装置及び車内監視システム
JP2019125345A (ja) 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6688990B2 (ja) * 2016-04-28 2020-04-28 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび記録媒体
JP6962280B2 (ja) * 2018-06-26 2021-11-05 株式会社デンソー 車両制御方法、車両制御システム、及び車両制御装置
JP7215228B2 (ja) * 2019-03-01 2023-01-31 トヨタ自動車株式会社 制御装置、制御方法、制御プログラム
JP7418268B2 (ja) * 2019-05-10 2024-01-19 株式会社アイシン 車両内転倒防止装置および転倒防止情報提供装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062414A (ja) 2014-09-19 2016-04-25 クラリオン株式会社 車内監視装置及び車内監視システム
JP2019125345A (ja) 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム

Also Published As

Publication number Publication date
EP4250262A1 (en) 2023-09-27
JPWO2022137541A1 (ja) 2022-06-30
WO2022137541A1 (ja) 2022-06-30
US20240054674A1 (en) 2024-02-15
EP4250262A4 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
JP6331975B2 (ja) 停車時車両制御装置
JP6771673B2 (ja) 自律運転車両下方の監視のためのシステム
JP6782283B2 (ja) 監視システム
JP2017536277A (ja) センサーユニットおよび通信要素を備えたドアシステム
US20180286249A1 (en) Method and apparatus for operating a vehicle
KR101687073B1 (ko) 터널 높이 추정 장치 및 터널 높이 추정 방법
US9981598B2 (en) Alighting notification device
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
US10836412B2 (en) System, method, and program for preventing accidents
GB2549615A (en) Vehicle security system
KR20150042477A (ko) 유무선 게이트웨이를 이용한 블랙박스 기능 제공 시스템 및 그 방법
JP7186749B2 (ja) 管理システム、管理方法、管理装置、プログラム及び通信端末
KR20210005761A (ko) 자율성 극대화를 위한 자율주행차량 제어 시스템 및 이를 위한 자율성 제공 서버
JP7473016B2 (ja) システム、情報処理装置、方法、及びプログラム
CN109544935A (zh) 智能车库停车控制方法、装置及存储介质
US20240001965A1 (en) Systems and methods for accessory management
Smolka et al. A method for collision detection using mobile devices
US10435051B1 (en) System, method, and program for preventing accidents
WO2022070322A1 (ja) 画像処理システム、通信装置、方法、及びコンピュータ可読媒体
JP7188369B2 (ja) 車内監視システム、車内監視装置、及び車内監視プログラム
WO2022269697A1 (ja) 異常検知システム、異常検知方法及びプログラム記録媒体
US20230295963A1 (en) Door control device, storage medium storing computer program for door control, and method for door control
WO2024121963A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体
KR101092231B1 (ko) 열차 모니터링 시스템
JP2023155746A (ja) 車両を利用して異常事態を監視する装置、車両、方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7473016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150