JP2022135498A - 座席濡れ検出システム - Google Patents
座席濡れ検出システム Download PDFInfo
- Publication number
- JP2022135498A JP2022135498A JP2021035339A JP2021035339A JP2022135498A JP 2022135498 A JP2022135498 A JP 2022135498A JP 2021035339 A JP2021035339 A JP 2021035339A JP 2021035339 A JP2021035339 A JP 2021035339A JP 2022135498 A JP2022135498 A JP 2022135498A
- Authority
- JP
- Japan
- Prior art keywords
- seat
- detection system
- wet
- image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 35
- 238000009736 wetting Methods 0.000 title claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000001931 thermography Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 238000004140 cleaning Methods 0.000 description 3
- 244000007853 Sarothamnus scoparius Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 235000013361 beverage Nutrition 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Images
Landscapes
- Radiation Pyrometers (AREA)
- Image Analysis (AREA)
Abstract
【課題】座席の濡れ検出における作業時間及び身体的負担を低減できる座席濡れ検出システムを提供する。【解決手段】本開示は、座席の濡れを検出する座席濡れ検出システムである。座席濡れ検出システムは、座席を含む空間の温度分布を示すサーモグラフィ画像と空間の可視光画像とを取得するように構成された画像取得部と、可視光画像から座席領域を抽出するように構成された抽出部と、抽出部が抽出した座席領域の温度分布に基づいて座席の濡れを判定するように構成された判定部と、を備える。【選択図】図1
Description
本開示は、座席濡れ検出システムに関する。
乗物(例えば、鉄道車両、バス、航空機等)及び施設(例えば、映画館、コンサートホール等)には、クッションを備える座席が配置される(特許文献1参照)。この座席には、不特定多数の利用者が入れ替わりで着席するため、飲料物等の液体によって座席が濡れる場合がある。
そこで、座席の清掃作業者は、利用者の入れ替えを行う間に、座席の濡れの有無を確認し、濡れがあった場合に回復作業を行う必要がある。このような濡れの検出方法としては、例えば、電極を取り付けた箒で座席をなでることで水分を検出する方法がある。
上述の濡れの検出方法では、座席ごとに座面等の検出部位を箒でなでる作業を繰り返す必要がある。そのため、全ての座席の検出を完了するまでに時間を要する。また、検出作業を行う作業者の身体的負担も大きい。
本開示の一局面は、座席の濡れ検出における作業時間及び身体的負担を低減できる座席濡れ検出システムを提供することを目的としている。
本開示の一態様は、座席の濡れを検出する座席濡れ検出システムである。座席濡れ検出システムは、座席を含む空間の温度分布を示すサーモグラフィ画像と空間の可視光画像とを取得するように構成された画像取得部と、可視光画像から座席領域を抽出するように構成された抽出部と、抽出部が抽出した座席領域の温度分布に基づいて座席の濡れを判定するように構成された判定部と、を備える。
このような構成によれば、座席を含むサーモグラフィ画像及び可視光画像を取得することで、座席の濡れを検出することができる。そのため、濡れ検出の作業時間が短縮される。さらに、座席に対する物理的な接触が不要となるため、作業者の身体的負担が軽減される。
本開示の一態様では、抽出部は、座席領域が指定された複数の画像を教師データとする機械学習により生成された学習済みモデルを用いて、座席領域を抽出するように構成されてもよい。このような構成によれば、検出対象とする座席を含む画像を教師データとして使用することで、検出対象の座席の形状、模様等に応じた座席領域の抽出が可能となる。
本開示の一態様では、判定部は、座席の濡れ箇所を判定するように構成されてもよい。このような構成によれば、濡れに対する回復作業の必要箇所が把握できるため、清掃作業の効率を高めることができる。
本開示の一態様では、抽出部は、座席領域の抽出時に、座席の座面以外の特定領域を座席領域から除外するように構成されてもよい。このような構成によれば、座席のうち濡れの判定が不要な部位が濡れ箇所として検出されることを回避できる。その結果、濡れの検出作業の効率が向上する。
以下、本開示が適用された実施形態について、図面を用いて説明する。
[1.第1実施形態]
[1-1.構成]
図1に示す座席濡れ検出システム1は、乗物又は施設に配置された座席の濡れを検出する。座席濡れ検出システム1は、画像取得部2と、処理部3と、通知部4とを備える。
[1.第1実施形態]
[1-1.構成]
図1に示す座席濡れ検出システム1は、乗物又は施設に配置された座席の濡れを検出する。座席濡れ検出システム1は、画像取得部2と、処理部3と、通知部4とを備える。
座席が配置される乗物としては、鉄道車両、バス、航空機等の多数の乗客を輸送する公共輸送機関が挙げられる。座席が配置される施設としては、映画館、コンサートホール、テーマパーク等の多数の乗客がコンテンツを観賞又は体験する設備が挙げられる。
これらの中でも鉄道車両では、座席が配置される客室空間が狭く、かつ、折り返し運転時の短いインターバルで座席の清掃を行う必要がある。そのため、鉄道車両では、座席の濡れ検出における作業時間及び身体的負担の低減が特に求められる。
<画像取得部>
画像取得部2は、座席を含む空間の温度分布を示すサーモグラフィ画像と、この空間の可視光画像(つまり写真画像)とを同時に取得するように構成されている。可視光画像は、サーモグラフィ画像と同じ画角を有する。1回の撮影(つまり、1つのサーモグラフィ画像及び1つの可視光画像)には、複数の座席が含まれてもよい。
画像取得部2は、座席を含む空間の温度分布を示すサーモグラフィ画像と、この空間の可視光画像(つまり写真画像)とを同時に取得するように構成されている。可視光画像は、サーモグラフィ画像と同じ画角を有する。1回の撮影(つまり、1つのサーモグラフィ画像及び1つの可視光画像)には、複数の座席が含まれてもよい。
画像取得部2としては、赤外線放射量の分析を利用した公知のサーモグラフィカメラと、可視光カメラとを備えた撮影機器が使用できる。画像取得部2は、例えば、作業者が使用する携帯端末に取り付けられた可搬タイプとすることもできるし、座席が配置された空間(例えば天井等)に設置された固定タイプとすることもできる。
なお、画像取得部2は、サーモグラフィ画像から可視光画像を抽出することによって、可視光画像を取得してもよい。
図2Aに、画像取得部2が取得するサーモグラフィ画像の一例を示す。図2Aの画像は、鉄道車両の客室内に配置された3つの座席が連結されたシートを画像取得部2によって撮影したものである。
図2Aの画像では、色の暗い(つまり黒い)部分が低温、色の明るい(つまり白い)部分が高温で表されている。なお、実際のサーモグラフィ画像ではカラーで段階的に温度の高低が示される。例示した図2Aの画像は、カラーのサーモグラフィ画像を白黒で2値化したものである。
<処理部>
処理部3は、画像取得部2が取得したサーモグラフィ画像及び可視光画像に基づいて座席の濡れの有無を判定する処理を実行するように構成されている。処理部3は、抽出部31と、判定部32と、記憶部33とを有する。
処理部3は、画像取得部2が取得したサーモグラフィ画像及び可視光画像に基づいて座席の濡れの有無を判定する処理を実行するように構成されている。処理部3は、抽出部31と、判定部32と、記憶部33とを有する。
処理部3は、例えば、プロセッサと、RAM、ROM等の記憶媒体と、入出力部とを備えるコンピュータにより構成される。処理部3としては、例えば、スマートフォン等の携帯端末が使用できる。
(抽出部)
抽出部31は、可視光画像から座席領域を抽出するように構成されている。「座席領域」は、濡れの検出対象領域であり、例えば、座席のクッション及び背もたれを含み、床、壁、窓、天井等の座席以外の構造を含まない領域である。
抽出部31は、可視光画像から座席領域を抽出するように構成されている。「座席領域」は、濡れの検出対象領域であり、例えば、座席のクッション及び背もたれを含み、床、壁、窓、天井等の座席以外の構造を含まない領域である。
また、抽出部31は、座席領域の抽出時に、座席の座面以外の特定領域を座席領域から除外する。特定領域は、予め定められた領域であり、例えば、ひじ掛け、交換可能なシートカバー等が挙げられる。
図2Bに、図2Aのサーモグラフィ画像と同じ画角の可視光画像から、抽出部31によって抽出された座席領域Sの一例を示す。図2Bでは、3つの座席のクッション及び背もたれが座席領域Sとして抽出されている。一方、図2Bでは、座席が配置された客室空間における床及び壁、並びに座席が有する2つのひじ掛けは、座席領域Sから除外されている。
具体的には、抽出部31は、座席領域が指定された複数の画像を教師データ(つまりラベル付きデータ)とする機械学習により生成された学習済みモデルを用いて、座席領域を抽出する。学習済みモデルは、記憶部33に記憶されている。
抽出部31が用いる学習済みモデルは、入力データである少なくとも1つの座席を含んだ複数の画像と、入力データに対するラベルである座席領域とによる機械学習により構築される。
入力データとしての画像は、画像取得部2が取得した可視光画像を用いてもよいし、画像取得部2以外の撮影機器で撮影した可視光画像を用いてもよい。さらに、ラベル付きデータには、同一の可視光画像の向きを変えた(例えば90°回転させた)ものが含まれてもよい。
学習済みモデルは、教師あり機械学習によって構築される分類器(つまり分類モデル)であり、例えば多層ニューラルネットワークで構成される。なお、学習済みモデルとして、ニューラルネットワーク以外のモデルを用いてもよい。
学習済みモデルを生成する学習ステップでは、多数のラベル付きデータを機械学習装置(図示省略)に分析させる。機械学習装置は、多数のラベル付きデータから座席領域の範囲を分類するための特徴量を学習し、学習モデルを構築する。
学習済みモデルは、検出対象とする座席の属性(例えば、サイズ、形状、模様、配置される空間等)毎に生成されるとよい。また、複数の種類の座席に対応可能な汎用的な学習済みモデルが生成されてもよい。なお、機械学習装置は処理部3に組み込まれていてもよい。
(判定部)
判定部32は、抽出部31が抽出した座席領域の温度分布に基づいて座席の濡れを判定するように構成さている。具体的には、判定部32は、座席の濡れ箇所を判定し、判定した濡れ箇所を通知部4に出力するように構成されている。
判定部32は、抽出部31が抽出した座席領域の温度分布に基づいて座席の濡れを判定するように構成さている。具体的には、判定部32は、座席の濡れ箇所を判定し、判定した濡れ箇所を通知部4に出力するように構成されている。
判定部32による濡れの判定手順は以下の通りである。まず、判定部32は、座席領域の平均温度を算出する。次に、判定部32は、座席領域のうち、平均温度よりも予め定められた閾値以上低い箇所を濡れ箇所Wと判定する。閾値としては、例えば3℃とすることができる。
図2Cに、図2Aのサーモグラフィ画像から判定部32によって判定された濡れ箇所Wの一例を示す。図2Cでは、中央の座席における座面に温度の低い(つまり色が黒い)領域が存在しており、この領域が判定部32によって濡れ箇所Wとして判定される。
なお、図2Aのサーモグラフィ画像では座席の周囲の床及び壁も温度が低いが、床及び壁は座席領域Sに含まれない。そのため、判定部32は、床及び壁を濡れ箇所Wとして判定しない。また、2つの座席の間に配置されたひじ掛けも座席領域Sに含まれないため、濡れの判定対象からは除外されている。
<通知部>
通知部4は、判定部32が判定した結果(つまり、濡れ箇所の有無及びその位置)を画像及び/又は音声によって通知する。通知部4としては、例えば、スマートフォン等の携帯端末の出力装置(例えば、ディスプレイ、スピーカ等)が使用できる。
通知部4は、判定部32が判定した結果(つまり、濡れ箇所の有無及びその位置)を画像及び/又は音声によって通知する。通知部4としては、例えば、スマートフォン等の携帯端末の出力装置(例えば、ディスプレイ、スピーカ等)が使用できる。
[1-2.処理]
以下、図3のフロー図を参照しつつ、座席濡れ検出システム1の処理部3が実行する処理の一例について説明する。
以下、図3のフロー図を参照しつつ、座席濡れ検出システム1の処理部3が実行する処理の一例について説明する。
本処理では、処理部3は、最初に、座席領域の抽出に適切なサイズに可視光画像をリサイズする(ステップS10)。
リサイズ後、処理部3は、学習済みモデルを利用して座席領域を抽出する(ステップS20)。座席領域の抽出後、処理部3は、サーモグラフィ画像に座席領域を重ね合わせることで、座席領域内の温度を抽出する(ステップS30)。
温度の抽出後、処理部3は、座席領域の平均温度よりも閾値以上低い箇所を濡れ箇所として判定する(ステップS40)。さらに、処理部3は、判定した結果を通知部4に出力する。
[1-3.効果]
以上詳述した実施形態によれば、以下の効果が得られる。
(1a)座席を含むサーモグラフィ画像及び可視光画像を取得することで、座席の濡れを検出することができる。そのため、濡れ検出の作業時間が短縮される。さらに、座席に対する物理的な接触が不要となるため、作業者の身体的負担が軽減される。
以上詳述した実施形態によれば、以下の効果が得られる。
(1a)座席を含むサーモグラフィ画像及び可視光画像を取得することで、座席の濡れを検出することができる。そのため、濡れ検出の作業時間が短縮される。さらに、座席に対する物理的な接触が不要となるため、作業者の身体的負担が軽減される。
(1b)抽出部31が学習済みモデルを用いて座席領域を抽出するため、検出対象とする座席を含む画像を教師データとして使用することで、検出対象の座席の形状、模様等に応じた座席領域の抽出が可能となる。
(1c)判定部32が濡れ箇所を判定することで、濡れに対する回復作業の必要箇所が把握できるため、清掃作業の効率を高めることができる。
(1d)抽出部31が特定領域を座席領域から除外することで、座席のうち濡れの判定が不要な部位が濡れ箇所として検出されることを回避できる。その結果、濡れの検出作業の効率が向上する。
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
(2a)上記実施形態の座席濡れ検出システム1において、抽出部は、必ずしも座席領域が指定された複数の画像を教師データとする機械学習により生成された学習済みモデルを用いなくてもよい。例えば、抽出部は、教師なし学習によって生成された学習済みモデルを用いてもよい。また、抽出部は、学習済みモデル以外のアルゴリズムを用いて座席領域を抽出してもよい。
(2b)上記実施形態の座席濡れ検出システム1において、判定部は、必ずしも座席の濡れ箇所を判定しなくてもよい。例えば、判定部は、座席における濡れの有無だけを判定してもよい。
(2c)上記実施形態の座席濡れ検出システム1において、抽出部は、必ずしも特定領域を座席領域から除外しなくてもよい。つまり、抽出部は、座席全体を常に座席領域に含めてもよい。
(2d)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。なお、特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
1…座席濡れ検出システム、2…画像取得部、3…処理部、4…通知部、
31…抽出部、32…判定部、33…記憶部。
31…抽出部、32…判定部、33…記憶部。
Claims (4)
- 座席の濡れを検出する座席濡れ検出システムであって、
座席を含む空間の温度分布を示すサーモグラフィ画像と前記空間の可視光画像とを取得するように構成された画像取得部と、
前記可視光画像から座席領域を抽出するように構成された抽出部と、
前記抽出部が抽出した前記座席領域の温度分布に基づいて前記座席の濡れを判定するように構成された判定部と、
を備える、座席濡れ検出システム。 - 請求項1に記載の座席濡れ検出システムであって、
前記抽出部は、前記座席領域が指定された複数の画像を教師データとする機械学習により生成された学習済みモデルを用いて、前記座席領域を抽出するように構成される、座席濡れ検出システム。 - 請求項1又は請求項2に記載の座席濡れ検出システムであって、
前記判定部は、前記座席の濡れ箇所を判定するように構成される、座席濡れ検出システム。 - 請求項1から請求項3のいずれか1項に記載の座席濡れ検出システムであって、
前記抽出部は、前記座席領域の抽出時に、前記座席の座面以外の特定領域を前記座席領域から除外するように構成される、座席濡れ検出システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035339A JP2022135498A (ja) | 2021-03-05 | 2021-03-05 | 座席濡れ検出システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035339A JP2022135498A (ja) | 2021-03-05 | 2021-03-05 | 座席濡れ検出システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022135498A true JP2022135498A (ja) | 2022-09-15 |
Family
ID=83232326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021035339A Pending JP2022135498A (ja) | 2021-03-05 | 2021-03-05 | 座席濡れ検出システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022135498A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024090949A1 (ko) * | 2022-10-28 | 2024-05-02 | 주식회사 엘지화학 | 이미지 분류 알고리즘에 기초한 고흡수성 수지의 흡수속도 산출 방법 |
-
2021
- 2021-03-05 JP JP2021035339A patent/JP2022135498A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024090949A1 (ko) * | 2022-10-28 | 2024-05-02 | 주식회사 엘지화학 | 이미지 분류 알고리즘에 기초한 고흡수성 수지의 흡수속도 산출 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110892450B (zh) | 使用统一成像设备提取视觉、深度和微振动数据 | |
US9822576B2 (en) | Method for operating an activatable locking device for a door and/or a window, securing device for a vehicle, vehicle | |
JP2020123352A (ja) | 人の状態認識を基盤として身体部位の長さ及び顔情報を使用して乗客の身長及び体重を予測する方法及び装置 | |
US6548804B1 (en) | Apparatus for detecting an object using a differential image | |
KR101869864B1 (ko) | 영상 기반 열차 부정 탑승 승객 감시 시스템 및 방법 | |
WO2002056251A1 (fr) | Dispositif de traitement d'images et ascenseur sur lequel il est monte | |
KR20170097201A (ko) | 표면 진동 감지 시스템 및 방법 | |
JP2016104074A (ja) | 姿勢判定装置、姿勢判定システム及びプログラム | |
CN105528571A (zh) | 区域信息估计装置、区域信息估计方法以及空调装置 | |
JP2022135498A (ja) | 座席濡れ検出システム | |
JP2015000807A (ja) | エレベータ制御システムおよびエレベータ制御方法 | |
JPWO2018163404A1 (ja) | 顔向き推定装置および顔向き推定方法 | |
JP2017138762A (ja) | 運転者の感情推定装置 | |
JP5881149B2 (ja) | 車両内でのアラーム対象者検知装置、アラーム対象者検知方法、プログラム、記録媒体およびアラーム対象者検知システム | |
KR101782469B1 (ko) | 영상 정보에 기반한 승객 감지 시스템 및 이의 방법 | |
JP2023158131A (ja) | 情報処理方法、情報処理装置、及び、プログラム | |
JP2021003972A (ja) | 情報処理装置、駅務システム、駅務機器、及びプログラム | |
EP4128024A1 (en) | Person activity recognition | |
US20220289075A1 (en) | System and method for detecting objects left behind by using heated resistive filament in a vehicle | |
JP5946125B2 (ja) | 画像処理装置、画像処理方法、プログラムおよび記録媒体 | |
JP2017095008A (ja) | 制御装置、制御方法、及び、プログラム | |
US20180322350A1 (en) | Method and device for providing a piece of occupant information for a safety unit for a vehicle | |
JP2022190504A (ja) | 画像解析装置及び監視システム | |
FR3059129A1 (fr) | Procede de caracterisation d'un etat d'au moins une zone d'une cabine d'aeronef et dispositif pour sa mise en oeuvre | |
JP6737213B2 (ja) | 運転者状態推定装置、及び運転者状態推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240930 |