JP2023006558A - 車載装置、物体の報知方法、及びプログラム - Google Patents

車載装置、物体の報知方法、及びプログラム Download PDF

Info

Publication number
JP2023006558A
JP2023006558A JP2021109220A JP2021109220A JP2023006558A JP 2023006558 A JP2023006558 A JP 2023006558A JP 2021109220 A JP2021109220 A JP 2021109220A JP 2021109220 A JP2021109220 A JP 2021109220A JP 2023006558 A JP2023006558 A JP 2023006558A
Authority
JP
Japan
Prior art keywords
image
vehicle
post
unit
vehicle device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021109220A
Other languages
English (en)
Other versions
JP7517272B2 (ja
JP2023006558A5 (ja
Inventor
浩一郎 竹内
Koichiro Takeuchi
正也 伊藤
Masaya Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021109220A priority Critical patent/JP7517272B2/ja
Priority to PCT/JP2022/024352 priority patent/WO2023276732A1/ja
Publication of JP2023006558A publication Critical patent/JP2023006558A/ja
Publication of JP2023006558A5 publication Critical patent/JP2023006558A5/ja
Application granted granted Critical
Publication of JP7517272B2 publication Critical patent/JP7517272B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Figure 2023006558000001
【課題】車室内にある物体を正確に認識できるとともに、物体の認識に要する計算時間及び消費電力を抑制できる車載装置、物体の報知方法、及びプログラムを提供すること。
【解決手段】車載装置3は、画像取得ユニットと、物体認識ユニットと、物体判断ユニットと、報知ユニットとを備える。画像取得ユニットは、乗車前画像、及び乗車後画像を、カメラ15を用いて取得する。物体認識ユニットは、乗車前画像と乗車後画像との差分領域を抽出し、差分領域において、画像認識により物体を認識する処理を行う。物体判断ユニットは、認識した物体が報知対象となる物体であるか否か、及び、物体が車室内に存在するか否かを判断する。報知ユニットは、報知対象となる物体が車室内に存在する場合、報知を行う。
【選択図】図1

Description

本開示は、車載装置、物体の報知方法、及びプログラムに関する。
車内忘れ物防止装置が特許文献1に開示されている。車内忘れ物防止装置は、車室内を撮影して得られた画像と、基準画像とを比較することによって忘れ物を検知する。車内忘れ物防止装置は、忘れ物を検知した場合、ドアが開いたときに、車室内スピーカー及び車室内ディスプレイにより、ユーザに対して忘れ物があることを通知する。
特開2009-75756号公報
車室内を撮影して得られた画像と、基準画像とを比較するだけでは、物体を正確に認識できないことがある。そこで、画像認識により物体を認識することが考えられる。しかしながら、画像の全体において画像認識を行うと、計算時間及び消費電力が増加してしまう。
本開示の1つの局面では、車室内にある物体を正確に認識できるとともに、物体の認識に要する計算時間及び消費電力を抑制できる車載装置、物体の報知方法、及びプログラムを提供することが好ましい。
本開示の1つの局面は、車載装置(3)である。車載装置は、車両(9)に乗員が乗車する前の車室内の画像である乗車前画像(101)、及び、前記車両に前記乗員が乗車した後の前記車室内の画像である乗車後画像(103)を、カメラ(15)を用いて取得するように構成された画像取得ユニット(43)と、前記乗車前画像と前記乗車後画像との差分領域(Y)を抽出し、前記差分領域において、画像認識により物体(107)を認識する処理を行うように構成された物体認識ユニット(45)と、前記物体認識ユニットが認識した前記物体が報知対象となる物体であるか否か、及び、前記物体が前記車室内に存在するか否かを判断するように構成された物体判断ユニット(47)と、前記物体が前記報知対象となる物体であり、前記物体が前記車室内に存在すると前記物体判断ユニットが判断した場合、報知を行う報知ユニット(49)と、を備える。
本開示の1つの局面である車載装置は、画像認識を用いるので、車室内にある物体を精度よく認識できる。また、本開示の1つの局面である車載装置は、差分領域において画像認識を行うので、乗車後画像の全体において画像認識を行う場合に比べて、計算時間及び消費電力を抑制できる。
本開示の別の局面は、通信機(19)を介してクラウド(5)と通信可能な車載装置(3)である。車載装置は、車両(9)に乗員が乗車する前の車室内の画像である乗車前画像(101)、前記車両に前記乗員が乗車した後の前記車室内の画像である乗車後画像(103)、前記車両が停車した際の前記車室内の画像である停車後画像(109-M、111)、及び前記車両のドアが施錠された際の前記車室内の画像である施錠後画像(113)を、カメラ(15)を用いて取得するように構成された画像取得ユニット(43)と、前記乗車前画像と前記乗車後画像との差分領域(Y)を抽出し、前記差分領域において、画像認識により物体(107)を認識する処理を行うように構成された物体認識ユニット(45)と、前記車両のユーザに対し報知を行うように構成された報知ユニット(49)と、を備える。
前記物体認識ユニットは、前記差分領域に所定の物体が認識された場合、前記差分領域と前記停車後画像とに基づいて物体を認識し、前記報知ユニットは、前記物体認識ユニットが前記差分領域と前記停車後画像とに基づいて前記所定の物体を認識した場合、報知を行うよう構成されている。
本開示の別の局面である車載装置は、画像認識を用いるので、車室内にある物体を精度よく認識できる。また、本開示の1つの局面である車載装置は、差分領域において画像認識を行うので、乗車後画像の全体において画像認識を行う場合に比べて、計算時間及び消費電力を抑制できる。
本開示の別の局面は、車両(9)に乗員が乗車する前の車室内の画像である乗車前画像(101)、及び前記車両に前記乗員が乗車した後の前記車室内の画像である乗車後画像(103)を、カメラ(15)を用いて取得し、前記乗車前画像と前記乗車後画像との差分領域(Y)を抽出し、前記差分領域において、画像認識により物体(107)を認識する処理を行い、前記物体が報知対象となる物体であるか否か、及び、前記物体が前記車室内に存在するか否かを判断し、前記物体が前記報知対象となる物体であり、前記物体が前記車室内に存在すると判断した場合、報知を行う、物体の報知方法である。
本開示の別の局面である物体の報知方法では、画像認識を用いるので、車室内にある物体を正確に認識できる。また、本開示の別の局面である物体の報知方法では、差分領域において画像認識を行うので、乗車後画像の全体において画像認識を行う場合に比べて、計算時間及び消費電力を抑制できる。
モビリティIoTシステムの構成を表すブロック図である。 車載装置の制御部における機能的構成を表すブロック図である。 車載装置が実行する処理を表すフローチャートである。 車載装置が実行する処理を表すフローチャートである。 乗車前画像と乗車後画像との差分領域を抽出する処理を表す説明図である。 停車後画像及び走行中画像を用いて物体の位置をトラッキングする方法を表す説明図である。 停車後画像と施錠後画像との差分領域を抽出する処理を表す説明図である。
本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.モビリティIoTシステム1の構成
モビリティIoTシステム1の構成を、図1に基づき説明する。IoTは、Internet of Thingsの略である。モビリティIoTシステム1は、車載装置3と、クラウド5と、サービス提供サーバ7と、を備える。なお、図1では便宜上、1のみの車載装置3を記載しているが、モビリティIoTシステム1は、例えば、複数の車載装置3を備える。複数の車載装置3は、それぞれ、異なる車両9に搭載されている。
車載装置3は、車両9に搭載された通信機19を介して、クラウド5と通信可能である。なお、車載装置3及び車両9の詳しい構成は後述する。
クラウド5は、車載装置3、サービス提供サーバ7、及び携帯端末23と通信可能である。携帯端末23は、例えば、車両9の乗員が所持する携帯端末である。乗員はユーザに対応する。携帯端末23として、例えば、スマートフォン、タブレット端末、ノートPC等が挙げられる。
クラウド5は、制御部25と、通信部27と、記憶部29とを備える。制御部25は、CPU31と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ33とする)とを備える。制御部25の機能は、メモリ33に格納されたプログラムをCPU31が実行することにより実現される。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。通信部27は、通信機19及び携帯端末23との間で無線通信を行うことができる。記憶部29は情報を記録することができる。
サービス提供サーバ7は、クラウド5と通信可能である。サービス提供サーバ7は、例えば、車両9の運行を管理するサービス等を提供するために設置されたサーバである。なお、モビリティIoTシステム1は、サービス内容が互いに異なる複数のサービス提供サーバ7を備えてもよい。
クラウド5は、複数の車載装置3のそれぞれから通信機19を介して送信された車両9のデータを収集する。クラウド5は、車両9ごとに、収集したデータを記憶部29に記憶する。
クラウド5は、記憶部29に記憶されている車両9のデータに基づき、デジタルツインを作成する。デジタルツインは、正規化されたインデックスデータを有する。サービス提供サーバ7は、デジタルツインから取得したインデックスデータを用いて記憶部29に記憶されている所定車両のデータを取得することができる。サービス提供サーバ7は、車両9に指示する制御内容を決定し、制御内容に対応する指示をクラウド5に送信する。クラウド5は、指示に基づき、車両9へ制御内容を送信する。
2.車載装置3及び車両9の構成
車載装置3及び車両9の構成を、図1~図2に基づき説明する。図1に示すように、車載装置3は、制御部35と、記憶部37と、を備える。制御部35は、CPU39と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ41とする)とを備える。制御部35の機能は、メモリ41に格納されたプログラムをCPU39が実行することにより実現される。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。
記憶部37は情報を記憶することができる。記憶部37には、画像認識モデルが記憶されている。画像認識モデルは、車両9に搭載されたカメラ15を用いて生成した画像に対し画像認識を行い、物体107を識別するために使用される。
図2に示すように、制御部35の機能的な構成は、画像取得ユニット43と、物体認識ユニット45と、物体判断ユニット47と、報知ユニット49と、施錠後処理ユニット50と、施錠後報知ユニット51と、トラッキングユニット53と、車両状態取得ユニット55と、を含む。
画像取得ユニット43は、カメラ15を用いて車両9の車室内を撮影し、画像を取得する。画像として、乗車前画像101と、乗車後画像103と、走行中画像109と、停車後画像111と、施錠後画像113と、ドアクローズ後画像とがある。
乗車前画像101は、車両9に乗員が乗車する前の車室内の画像である。乗車前画像101は、車両9のエンジンがオンになる前に撮影された画像であってもよいし、車両9がアイドリング状態であるときに撮影された画像であってもよい。例えば、画像取得ユニット43は、ドアロック解除を契機として乗車前画像101を取得する。
乗車後画像103は、車両9に乗員が乗車した後の車室内の画像である。乗車後画像103は、例えば、車両9が走行を開始する前に撮影された画像である。走行中画像109は、車両9が走行中であるときの車室内の画像である。停車後画像111は、車両9が停車した後の車室内の画像であり、例えば、停車を契機として撮影された画像である。停車後画像111は、例えば、イグニッションオフを契機として撮影された画像である。施錠後画像113は、車両9のドアが施錠された後の車室内の画像であり、例えば、ドア施錠を契機として撮影された画像である。ドアクローズ後画像は、車両9のドアが開き、次に閉じた後の車室内の画像であり、例えば、ドア開放後のドア閉鎖を契機として撮影された画像である。
物体認識ユニット45は、乗車前画像101と乗車後画像103との差分領域Yを抽出する。差分領域Yは、乗車前画像101と乗車後画像103との画像に差異がある領域である。物体認識ユニット45は、差分領域Yにおいて、画像認識により物体107を認識する処理を行う。物体判断ユニット47は、物体認識ユニット45が認識した物体107がアラート対象となる物体107であるか否か、及び、物体107が車両9の車室内に存在するか否かを判断する。報知ユニット49は、物体107が車両9の車室内に存在すると物体判断ユニット47が判断した場合、報知を行う。物体判断ユニット47は、物体認識ユニット45の一部であってもよい。アラート対象とは、ステップ12、18において報知を行う対象となる物体107である。アラート対象は所定の物体、及び報知対象に対応する。アラート対象は記憶部29に予め記憶されている。
施錠後処理ユニット50は、施錠後画像113と停車後画像111との差分領域Zを抽出する処理を行う。差分領域Zは、施錠後画像113と停車後画像111との画像に差異がある領域である。施錠後処理ユニット50は、差分領域Zが抽出された場合は、差分領域Zにおいて、画像認識により物体107を認識する処理を行う。施錠後報知ユニット51は、差分領域Zが抽出されなかった場合、及び、差分領域Zで物体107が認識された場合、報知を行う。施錠後処理ユニット50は、物体認識ユニット45の一部であってもよい。施錠後報知ユニット51は、例えば、差分領域Zで、アラート対象となる物体107が認識された場合、報知を行う。施錠後報知ユニット51は、例えば、差分領域Zで認識された物体107がアラート対象となる物体107ではない場合は、報知を行わない。
トラッキングユニット53は、走行中画像109に基づき、物体認識ユニット45が認識した物体107の位置をトラッキングする。車両状態取得ユニット55は、車両ECU11から車両9の状態を表す信号を取得する。車両9の状態として、例えば、イグニッションオン、イグニッションオフ、エンジンオン、エンジンオフ、走行開始、走行終了、ドアの施錠、ドアの解錠、ドアの開閉、アイドリング状態等が挙げられる。トラッキングユニット53は、物体認識ユニット45の一部であってもよい。
図1に示すように、車両9は、車載装置3に加えて、車両ECU11、カメラ15、通信機19、及びアラート機器21を備える。車載装置3は、車両ECU11、カメラ15、通信機19、及びアラート機器21のそれぞれと、通信を行うことができる。
車両ECU11は、車両9の状態を検出し、検出した状態を表す信号を、バスを介して車載装置3の車両状態取得ユニット55に送信する。例えば、車両ECU11は、車両9の車速を検出する。車両9の車速が0Km/hから閾値以上に変化したとき、車両ECU11は、走行開始を表す信号を車両状態取得ユニット55に送信する。また、車両9の車速が閾値以上から0Km/hに変化したとき、車両ECU11は、走行終了を表す信号を車両状態取得ユニット55に送信する。
車両ECU11は、例えば、シフトの位置を検出する。シフトの位置がパーキングに変化し、エンジンがオフになったとき、車両ECU11は、停車を表す信号を車両状態取得ユニット55に送信する。また、シフトの位置がパーキングに変化し、エンジンがオンであるとき、車両ECU11は、アイドリング状態を表す信号を車両状態取得ユニット55に送信する。
カメラ15は、車室内に設置されている。カメラ15の撮影範囲は、車室内のうち、物体107が置かれる可能性が高い範囲を含む。カメラ15の撮影範囲は、例えば、運転席、助手席、後部座席、及びダッシュボード等の一部又は全部を含む。乗車前画像101、乗車後画像103、走行中画像109、停車後画像111、施錠後画像113、及びドアクローズ後画像は、カメラ15を用いて撮影することで生成する画像である。
通信機19は、クラウド5の通信部27との間で通信を行うことができる。アラート機器21は、例えば、スピーカー、クラクション、メーター等である。スピーカー、及びメーターは、例えば、車室内に設置されている装置である。スピーカー、及びクラクションは音声を出力する。メーターは画像を表示する。スピーカー、及びクラクションは車両に設置された装置に対応する。
3.車載装置3が実行する処理
車載装置3が実行する処理を図3~図7に基づき説明する。図3、図4に示す処理は、例えば、スリープ状態にあった車載装置3が起動したときに実行される。車載装置3は、例えば、以下のように起動する。車両9のドアが解錠されたとき、車両ECU11がドア解錠信号をバスに送信する。ドア解錠信号を受信した車載装置3は、スリープ状態から起動し、ウェイクアップ状態となる。なお、車載装置3は、図3、図4に示す処理が終了したとき、スリープ状態となる。
図3のステップ1では、画像取得ユニット43が、カメラ15を用いて乗車前画像101を取得する。例えば、画像取得ユニット43は、車両9のドアが解錠された時点から、乗車前画像101を取得するまでの時間を十分に短くする。すなわち、画像取得ユニット43は、ドアが解錠された直後に撮影された画像を取得する。その場合、乗車前画像101を取得した時点で、乗員は未だ車両9に乗車していない。
ステップ2では、車両状態取得ユニット55が、車両ECU11から取得した信号に基づき、車両9のエンジンがオンになったか否かを判断する。車両9のエンジンがオンになったと判断したと判断した場合、本処理はステップ3に進む。車両9のエンジンがオンでないと判断した場合、本処理はステップ2の前に戻る。なお、車両9のエンジンがオンになったとき、乗員は車両9に乗車している。
ステップ3では、画像取得ユニット43が、カメラ15を用いて乗車後画像103を取得する。画像取得ユニット43は、例えば、エンジンオンを契機として撮影された乗車後画像103を取得する。例えば、画像取得ユニット43は、パーキングブレーキオフやシフトがDレンジになったことを契機として撮影された乗車後画像103を取得してもよい。
ステップ4では、物体認識ユニット45が物体認識処理を行う。物体認識処理は以下のとおりである。物体認識ユニット45は、図5に示すように、乗車前画像101と乗車後画像103とを対比することで、乗車前画像101と乗車後画像103との差分領域Yを抽出する処理を行う。
差分領域Yとは、乗車後画像103のうち、乗車前画像101とは画像に差異がある領域である。物体認識ユニット45は、差分領域Yにおいて、画像認識により物体107を認識する処理を行う。物体認識ユニット45は、記憶部37に記憶されている画像認識モデルを使用して画像認識を行い、物体107の種類を識別する。乗車前画像101において物体107が存在せず、乗車後画像103において物体107が存在する場合、物体107は差分領域Yとなる。例えば、乗員は、車両9に乗車するとき、物体107を車室内に持ち込むことがある。物体107として、例えば、手荷物、幼児、赤ちゃん等が挙げられる。
物体107として、例えば、物(人及び動物を除く)、人、動物等が挙げられる。物は、例えば、車両9の乗員が持ち運び可能な物である。人として、例えば、大人、幼児、赤ちゃん等が挙げられる。これらのうち、車室内に置き忘れがある場合にアラートする対象をアラート対象とする。アラート対象は、例えば、幼児、赤ちゃん、動物、バッグ等の手荷物等である。物体認識ユニット45は、アラート対象となる物体107のみを認識するよう構成してもよい。
ステップ5では、車両状態取得ユニット55が、車両ECU11から取得した信号に基づき、車両9が走行を開始したか否かを判断する。走行を開始したと判断した場合、本処理はステップ6に進む。走行を開始していないと判断した場合、本処理はステップ5の前に戻る。なお、車両9が走行を開始してから、後述するステップ10で走行が終了したと判断するまで、車両9は走行中である。走行中とは、走行状態だけでなく、一時的な停車状態も含む。なお、ステップS3~S5の処理を、走行開始直後に行うよう構成してもよい。すなわち、前述した乗車後画像103は、車両9が走行を開始した後の画像であってもよい。
ステップ6では、前記ステップ4の処理で物体107を認識できたか否かを物体認識ユニット45が判断する。物体107を認識できたと判断した場合、本処理はステップ7に進む。物体107を認識できなかったと判断した場合、本処理はステップ21に進む。なお、いずれの物体107も認識できなかったと判断した場合だけでなく、アラート対象となる物体107を認識できなかった場合も、ステップ21に進む。すなわち、アラート対象となる物体107が車室内に存在しない場合、後述するトラッキング処理等は行わない。
ステップ7では、画像取得ユニット43が、カメラ15を用いて走行中画像109を取得する。ここでの走行中画像109とは、乗車後画像103よりも時間的に後に撮影された画像を意味する。なお、後述するステップ10で否定判断するごとに、ステップ6~10のサイクルが繰り返される。i回目のサイクル中のステップ7で取得した走行中画像109を、i回目の走行中画像109-iとする。iは自然数である。
ステップ8では、トラッキングユニット53が、乗車後画像103、及び前記ステップ7で取得した走行中画像109に基づき、前記ステップ4の処理で認識した物体107、又は、後述するステップ20の処理で認識した物体107の位置をトラッキングする。
例えば、図6に示すように、トラッキングユニット53は、乗車後画像103と、1回目の走行中画像109-1とを対比し、それらの差(以下では差分領域X1とする)に基づき、前記ステップ4の処理で認識した物体107の位置をトラッキングする。すなわち、差分領域X1に対し、ステップ4で認識した物体107の追跡を試み、当該物体107の位置を認識する。また、後述するステップ20の処理で物体107を認識した場合、トラッキングユニット53は、ステップ19で取得したドアクローズ後画像と、その後のステップ7で取得した走行中画像109とを対比し、それらの差に基づき、物体107の位置をトラッキングする。
また、トラッキングユニット53は、1回目の走行中画像109-1と、2回目の走行中画像109-2とを対比し、それらの差(以下では差分領域X2とする)に基づき、前記ステップ4又は前記ステップ20の処理で認識された物体107の位置をトラッキングする。すなわち、差分領域X2に対し、認識された物体107の追跡を試み、当該物体107の位置を認識する。また、トラッキングユニット53は、2回目の走行中画像109-2と、3回目の走行中画像109-3とを対比し、それらの差(以下では差分領域X3とする)に基づき、前記ステップ4又は前記ステップ20の処理で認識された物体107の位置をトラッキングする。同様に、トラッキングユニット53は、(N+1)回目の走行中画像109-(N+1)と、N回目の走行中画像109-Nとを対比し、それらの差(以下では差分領域XNとする)に基づき、前記ステップ4又は前記ステップ20の処理で認識された物体107の位置をトラッキングする。トラッキングユニット53は定期的に走行中画像109を取得し、これらの処理を行う。Nは1以上の自然数である。なお、ステップ8では、差分領域に対してトラッキングをするまでの処理を行い、物体107の種類を識別するための画像認識は行わない。
上述の説明では、2つの画像の差分領域を定めてトラッキングを行った。しかしながら、トラッキングは、次のように行っても良い。トラッキングユニット53は、乗車前画像101と乗車後画像103との差分領域Yを用いて、1回目の走行中画像109-1における当該差分領域Yを含む領域に対し、認識された物体107の追跡を試みる。そして、トラッキングユニット53は、1回目の走行中画像109-1における物体107の位置(以下では物体存在領域Y1とする)を決定する。トラッキングユニット53は、2回目の走行中画像109-2における物体存在領域Y1を含む領域に対し、認識された物体107の追跡を試みる。そして、トラッキングユニット53は、2回目の走行中画像109-2における物体107の位置(以下では物体存在領域Y2とする)を決定する。トラッキングユニット53は、以下同様に、N回目の走行中画像109-Nまで上述した処理を定期的に繰り返す。
ステップ9では、車両状態取得ユニット55が、車両ECU11から取得した信号に基づき、車両9のドアが開き、次に閉じた事象(以下では開閉事象とする)が生じたか否かを判断する。開閉事象が生じたと判断した場合、本処理はステップ19に進む。開閉事象が生じなかったと判断した場合、本処理はステップ10に進む。なお、ここでの開閉事象は、エンジンオンのままドライバ以外の乗員が乗降する場合を含む。
ステップ10では、車両状態取得ユニット55が、車両ECU11から取得した信号に基づき、車両9の走行が終了したか否かを判断する。車両9の走行が終了したと判断した場合、本処理はステップ11に進む。例えば、車両状態取得ユニット55は、エンジンオフ又はイグニッションオフの信号に基づき、車両9の走行が終了したと判断する。車両9の走行が終了した時点では、乗員は降車していない。車両9の走行が終了していないと判断した場合、本処理はステップ6に進む。
ステップ11では、前記ステップ4又は前記ステップ20の処理で認識した物体107が車室内に存在するか否かを物体判断ユニット47が判断する。物体判断ユニット47は、前記ステップ8の処理により、最後の走行中画像109-Mまで、物体107の位置がトラッキングできていれば、物体107は車室内に存在すると判断する。物体判断ユニット47は、最後の走行中画像109-Mまで、物体107の位置がトラッキングできていなければ、物体107は車室内に存在しないと判断する。
また、物体判断ユニット47は、前記ステップ4又は前記ステップ20の処理で認識した物体107がアラート対象である物体107であるか否かを判断する。アラート対象である物体107が車室内に存在すると判断した場合、本処理はステップ12に進む。アラート対象である物体107が車室内に存在しないと判断した場合、本処理は終了する。なお、最後の走行中画像109-Mを、停車後画像111として扱ってもよい。
また、走行中画像109による定期的なトラッキング処理(ステップ8)を行うことなく、最後の走行中画像109-M又は停車後画像111を用いて、物体107を認識するように構成してもよい。例えば、物体認識ユニット45は、最後の走行中画像109-Mにおける乗車前画像101と乗車後画像103との差分領域Yに対し、画像認識を行い、物体107を認識する。または、物体認識ユニット45は、最後の走行中画像109-Mにおける差分領域Y及びその周辺領域に対し、物体107の追跡を試み、物体107を認識してもよい。
ステップ12では、報知ユニット49が報知を行う。報知ユニット49は、例えば、アラート機器21のうち、車室内に設置された装置を用いて、車室内に向けて報知を行う。車室内に設置された装置として、例えば、スピーカー、メーター等が挙げられる。報知ユニット49は、赤ちゃんや動物の置き去り、手荷物の置き忘れ等をしないよう、表示又は音声にて注意喚起する。
ステップ13では、画像取得ユニット43が、カメラ15を用いて停車後画像111を取得する。例えば、画像取得ユニット43は、走行終了の判断を契機としてカメラ15から停車後画像111を取得する。また、最後の走行中画像109-Mを停車後画像111として扱ってもよい。
ステップ14では、車両状態取得ユニット55が、車両ECU11から取得した信号に基づき、車両9のドアが施錠されたか否かを判断する。車両9のドアが施錠されたと車両状態取得ユニット55が判断した場合、本処理はステップ15に進む。車両9のドアが施錠されていないと判断した場合、本処理はステップ14の前に戻る。なお、ここでのドア施錠は、走行終了後のドア開閉によりドライバが降車した後のドア施錠状態を含む。
ステップ15では、画像取得ユニット43が、カメラ15を用いて施錠後画像113を取得する。例えば、画像取得ユニット43は、ドアが施錠されたとの判断を契機として、カメラ15から施錠後画像113を取得する。
図4のステップ16では、施錠後処理ユニット50が、図7に示すように、停車後画像111と施錠後画像113との差分領域Zを抽出する処理を行う。例えば、停車後画像111と施錠後画像113Aとの両方において、同一の物体107が同じ位置に存在する場合、差分領域Zは存在せず、抽出されない。
施錠後画像113Bの内容が、停車後画像111の内容とは異なる場合、差分領域Zは抽出される。例えば、停車後画像111においては物体107が存在し、施錠後画像113Bにおいては物体107が存在しない場合、差分領域Zは存在し、抽出される。
差分領域Zが抽出された場合、施錠後処理ユニット50は、差分領域Zにおいて、画像認識により物体107を認識する処理を行う。施錠後処理ユニット50は、図7に示す差分領域Zにおいて、停車後画像111では存在した物体107が施錠後画像113では存在しないことを認識することができる。ここで、停車後から施錠後までの間に物体107が移動した場合、異なる二つの差分領域が抽出される。施錠後処理ユニット50は、各差分領域において画像認識により物体107を認識する処理を行う。これにより、停車後画像111では領域αに物体107が存在し、施錠後画像113では領域βに物体107が存在することを認識できる。
ステップ17では、施錠後処理ユニット50が、前記ステップ16の処理の結果に基づき、車両9の車室内にアラート対象である物体107が残っているか否かを判断する。差分領域Zが抽出されなかった場合、施錠後処理ユニット50は、車室内にアラート対象である物体107が残っていると判断する。
例えば、停車後画像111では赤ちゃんが存在し、施錠後画像113でも同じ場所に赤ちゃんが存在する場合は、車室内にアラート対象である物体107が残っている場合である。赤ちゃんは、アラート対象である物体107に対応する。停車後画像111では赤ちゃんが存在し、施錠後画像113でも同じ場所に赤ちゃんが存在する場合、差分領域Zは存在しない。
停車後画像111では赤ちゃんが存在し、施錠後画像113では赤ちゃんが存在しない場合(すなわち、ドライバとともに赤ちゃんが降車した場合)、差分領域Zが生じる。また、停車後画像111のうち領域αに赤ちゃんが存在し、施錠後画像113のうち、領域αとは異なる領域βに赤ちゃんが存在する場合(すなわち、赤ちゃんが車室内で移動したが、施錠後画像113を撮影した時点で依然として赤ちゃんが車室内にいる場合)、領域α、βが差分領域Zとなる。
また、画像認識の結果、差分領域Zでアラート対象である物体107が認識された場合、施錠後処理ユニット50は、車室内にアラート対象である物体107が残っていると判断する。それ以外の場合、施錠後処理ユニット50は、車室内にアラート対象である物体107が残っていないと判断する。車室内にアラート対象である物体107が残っていると判断した場合、本処理はステップ18に進む。車室内にアラート対象である物体107が残っていないと判断した場合、本処理は終了する。
ステップ18では、施錠後報知ユニット51が報知を行う。報知の態様として、例えば、以下の態様がある。施錠後報知ユニット51は、例えば、クラウド5を介し、携帯端末23へ報知する。携帯端末23は、音声、画像、振動等により報知する。施錠後報知ユニット51は、クラウド5を介し、携帯端末23へ、施錠後画像113、又は施錠後画像113を加工した画像を送信する。携帯端末23は、施錠後画像113、又は施錠後画像113を加工した画像を表示する。施錠後報知ユニット51は、例えば、車両9のクラクションを鳴らし、降車したドライバに気づかせるように、車両9の周囲へ報知を行う。
前記ステップ9で肯定判断した場合、ステップ19に進む。ステップ19では、画像取得ユニット43が、カメラ15を用いてドアクローズ後画像を取得する。
ステップ20では、物体認識ユニット45が物体認識処理を行う。物体認識処理は以下のとおりである。物体認識ユニット45は、最後に取得した走行中画像109―Mとドアクローズ後画像とを対比することで、最後に取得した走行中画像109-Mとドアクローズ後画像との差分領域Yを抽出する処理を行う。差分領域Yとは、ドアクローズ後画像のうち、最後に取得した走行中画像109-Mとは異なる領域である。
例えば、車両9のドアが開いてからドアが閉じるまでの間に乗員が降車した場合、降車した乗員は、最後に取得した走行中画像109-Mには存在し、ドアクローズ後画像には存在しないため、差分領域Yが生じる。
例えば、車両9のドアが開いてからドアが閉じるまでの間に乗員が乗車し、新たな手荷物を持ち込んだ場合、乗車した乗員及び新たな手荷物は、最後に取得した走行中画像109-Mには存在せず、ドアクローズ後画像には存在するため、差分領域Yが生じる。
物体認識ユニット45は、差分領域Yにおいて、画像認識により物体107を認識する処理を行う。物体107として、例えば、車両9のドアが開いてからドアが閉じるまでの間に降車した乗員、車両9のドアが開いてからドアが閉じるまでの間に乗車した乗員、乗車した乗員により持ち込まれた手荷物等が挙げられる。
物体認識ユニット45は、記憶部37に記憶されている画像認識モデルを使用して画像認識を行う。物体107が認識された場合、その物体107は、車両9のドアが開いてからドアが閉じるまでの間に乗員によって車室内に持ち込まれた物体107である。
前記ステップ6で否定判断した場合、ステップ21に進む。ステップ21では、車両状態取得ユニット55が、車両ECU11から取得した信号に基づき、車両9が停車したか否かを判断する。車両9が停車したと判断した場合、本処理はステップ22に進む。車両9が停車していないと判断した場合、本処理はステップ9に進む。
ステップ22では、画像取得ユニット43が、カメラ15を用いて走行中画像109を取得する。次に、本処理はステップ9に進む。
4.車載装置3が奏する効果
(1A)車載装置3は、乗車前画像101、及び乗車後画像103を取得する。車載装置3は、乗車前画像101と乗車後画像103との差分領域Yを抽出し、差分領域Yにおいて、画像認識により物体107を認識する処理を行う
車両9に乗車するときに、乗員が物体107を車室内に持ち込んだ場合、物体107は乗車前画像101においては存在せず、乗車後画像103においては存在する。そのため、乗員が物体107を車室内に持ち込んだ場合、乗車後画像103のうち、物体107が存在する領域は差分領域Yとなる。乗員が物体107を車室内に持ち込んだ場合、車載装置3は、乗車後画像103のうち、物体107が存在する領域を差分領域Yとして抽出し、差分領域Yにおいて画像認識により物体107を認識する。
車両9が停車するまでに乗員が物体107を回収していない場合、前記ステップ11において、物体107が車室内にあると判断される。物体107が車室内にあると判断された場合、車載装置3は報知を行う。乗員は、報知によって、車室内に物体107があることを知ることができる。走行終了時、車室内に向けて報知をすることで、ドライバ等による置き忘れ又は置き去りを抑制するよう、降車前のドライバ等に対して予め注意喚起できる。
車載装置3は、画像認識を用いるので、車室内にある物体107の種類を精度よく認識できる。また、車載装置3は、乗車後画像103のうち、差分領域Yにおいて画像認識を行うので、乗車後画像103の全体において画像認識を行う場合に比べて、計算時間及び消費電力を抑制できる。
(1B)車載装置3は、前記ステップ12において、車室内に設置された装置を用いて報知を行う。前記ステップ12の処理の時点において、乗員(例えばドライバ等)は車室内にいる可能性が高い。そのため、乗員は、車室内に物体107があることを一層確実に知ることができ、車室内に物体107を置き忘れて降車することを抑制できる。
(1C)車載装置3は、停車後画像111及び施錠後画像113をさらに取得する。車載装置3は、施錠後画像113と停車後画像111との差分領域Zを抽出する処理を行い、差分領域Zが抽出された場合は、差分領域Zにおいて、画像認識により物体107を認識する処理を行う。車載装置3は、差分領域Zが抽出されなかった場合、及び、差分領域Zで物体107が認識された場合、報知を行う。
差分領域Zが抽出されなかった場合とは、停車後画像111と施錠後画像113との両方において、同一の物体107が同じ位置に存在していた場合である。すなわち、差分領域Zが抽出されなかった場合とは、施錠後に車両9の車室内に物体107が残っている場合である。また、差分領域Zで物体107が認識された場合も、施錠後に車両9の車室内に物体107が残っている場合である。
よって、車載装置3が報知を行う場合は、施錠後に車両9の車室内に物体107が残っている場合である。車両9の乗員は、報知により、施錠後に車両9の車室内に物体107が残っていることを知ることができる。
(1D)車載装置3は、前記ステップ18において、クラウド5を介し、乗員の携帯端末23へ報知することができる。そのため、乗員は、車両9の車室内に物体107があることを一層確実に知ることができる。
(1E)車載装置3は、前記ステップ18において、クラウド5を介し、乗員の携帯端末23へ、施錠後画像113、又は施錠後画像113を加工した画像を送信することができる。そのため、乗員は、車室内に物体107があること、及び物体107が何であるかを知ることができる。
(1F)車載装置3は、前記ステップ18において、車両9のクラクションを鳴らすことができる。そのため、降車後の乗員(例えばドライバ等)は、車室内に物体107があることを一層確実に知ることができる。
(1G)車載装置3は、前記ステップ6において物体107を認識しなかったと判断した場合、トラッキング等を行わない。そのため、車載装置3は、制御部35の処理負担を抑制することができる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)前記ステップ16、17の処理は、以下の処理であってもよい。ステップ16では、施錠後処理ユニット50は、前記ステップ8において行われたトラッキングの結果に基づき、施錠後画像113において物体107が存在する範囲を推測する。施錠後処理ユニット50は、推測した範囲に対し、画像認識により物体107を認識する処理を行う。
ステップ17では、施錠後処理ユニット50が、前記ステップ16において物体107を認識したか否かを判断する。物体107を認識したと判断した場合、本処理はステップ18に進む。物体107を認識しなかったと判断した場合、本処理は終了する。なお、施錠後画像113は車両9の車室内を撮影して得られた画像であるから、認識された物体107は車室内に存在する。この場合も、第1実施形態と同様の効果を奏する。
(2)車載装置3は、アイドリング状態にある車両9に乗員が乗車する前に、乗車前画像101を取得してもよい。この場合、車載装置3は、アイドリング状態にある車両9に乗車するときに乗員が持ち込んだ物体107について、前記ステップ12又は前記ステップ18で報知を行うことができる。
(3)前記ステップ18において、車載装置3は、携帯端末23への報知等に加えて、他の処理を行ってもよい。例えば、物体107が人間の幼児である場合、車載装置3は、前記ステップ18において、車両9のエアコンを動作させて車室の温度を下げる、窓を開ける、ドアを解錠する等の処理を行うことができる。
(4)車載装置3は、カメラ15、通信機19、及びアラート機器21のうちの1以上の機能を備えていてもよい。これら幼児に対する対策は、クラウド5からの指示に基づいて車載装置3が行うよう構成してもよい。
(5)本開示に記載の制御部35及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部35及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。制御部35に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(6)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(7)上述した車載装置3の他、当該車載装置3を構成要素とするシステム、当該車載装置3の制御部35としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物体の認識方法等、種々の形態で本開示を実現することもできる。
1…モビリティIoTシステム、3…車載装置、5…クラウド、9…車両、15…カメラ、21…アラート機器、23…携帯端末、43…画像取得ユニット、45…物体認識ユニット、47…物体判断ユニット、49…報知ユニット、50…施錠後処理ユニット、51…施錠後報知ユニット、53…トラッキングユニット、55…車両状態取得ユニット、101…乗車前画像、103…乗車後画像、Y…差分領域、107…物体、109…走行中画像、111…停車後画像、113、113A、113B…施錠後画像、Z…差分領域

Claims (19)

  1. 車両(9)に乗員が乗車する前の車室内の画像である乗車前画像(101)、及び前記車両に前記乗員が乗車した後の前記車室内の画像である乗車後画像(103)を、カメラ(15)を用いて取得するように構成された画像取得ユニット(43)と、
    前記乗車前画像と前記乗車後画像との差分領域(Y)を抽出し、前記差分領域において、画像認識により物体(107)を認識する処理を行うように構成された物体認識ユニット(45)と、
    前記物体認識ユニットが認識した前記物体が報知対象となる物体であるか否か、及び、前記物体が前記車室内に存在するか否かを判断するように構成された物体判断ユニット(47)と、
    前記物体が前記報知対象となる物体であり、前記物体が前記車室内に存在すると前記物体判断ユニットが判断した場合、報知を行う報知ユニット(49)と、
    を備える車載装置(3)。
  2. 請求項1に記載の車載装置であって、
    前記画像取得ユニットは、前記車両が停車した後の前記車室内の画像である停車後画像(111)、及び前記車両のドアが施錠された後の前記車室内の画像である施錠後画像(113)をさらに取得するように構成され、
    前記施錠後画像と前記停車後画像との差分領域(Z)を抽出する処理を行い、前記差分領域が抽出された場合は、前記差分領域において、画像認識により前記物体を認識する処理を行うように構成された施錠後処理ユニット(50)と、
    前記差分領域が抽出されなかった場合、及び、前記差分領域で前記物体が認識された場合、報知を行う施錠後報知ユニット(51)と、
    をさらに備える、
    車載装置。
  3. 請求項2に記載の車載装置であって、
    前記施錠後報知ユニットは、クラウド(5)を介し、前記車両のユーザの携帯端末(23)へ報知するように構成された、
    車載装置。
  4. 請求項3に記載の車載装置であって、
    前記施錠後報知ユニットは、前記クラウドを介し、前記携帯端末へ、前記施錠後画像、又は前記施錠後画像を加工した画像を送信するように構成された、
    車載装置。
  5. 請求項2~4のいずれか1項に記載の車載装置であって、
    前記施錠後報知ユニットは、前記車両のクラクションを鳴らすように構成された、
    車載装置。
  6. 請求項1~5のいずれか1項に記載の車載装置であって、
    前記画像取得ユニットは、前記車両が走行中であるときの前記車室内の画像である走行中画像(109)、及び、前記車両のドアが施錠された後の前記車室内の画像である施錠後画像(113)をさらに取得するように構成され、
    前記走行中画像に基づき、前記物体認識ユニットが認識した前記物体の位置をトラッキングするように構成されたトラッキングユニット(53)と、
    前記トラッキングユニットが行ったトラッキングの結果に基づき、前記施錠後画像において前記物体が存在する範囲を推測し、推測した前記範囲に対し、画像認識により前記物体を認識する処理を行うように構成された施錠後処理ユニット(50)と、
    前記施錠後処理ユニットが前記物体を認識した場合、報知を行う施錠後報知ユニット(51)と、
    をさらに備える、
    車載装置。
  7. 請求項6に記載の車載装置であって、
    前記物体認識ユニットが前記物体を認識しなかった場合、前記トラッキングユニットはトラッキングを行わない、
    車載装置。
  8. 通信機(19)を介してクラウド(5)と通信可能な車載装置(3)であって、
    車両(9)に乗員が乗車する前の車室内の画像である乗車前画像(101)、前記車両に前記乗員が乗車した後の前記車室内の画像である乗車後画像(103)、前記車両が停車した際の前記車室内の画像である停車後画像(109-M、111)、及び前記車両のドアが施錠された際の前記車室内の画像である施錠後画像(113)を、カメラ(15)を用いて取得するように構成された画像取得ユニット(43)と、
    前記乗車前画像と前記乗車後画像との差分領域(Y)を抽出し、前記差分領域において、画像認識により物体(107)を認識する処理を行うように構成された物体認識ユニット(45)と、
    前記車両のユーザに対し報知を行うように構成された報知ユニット(49)と、を備え、
    前記物体認識ユニットは、前記差分領域に所定の物体が認識された場合、前記差分領域と前記停車後画像とに基づいて物体を認識し、
    前記報知ユニットは、前記物体認識ユニットが前記差分領域と前記停車後画像とに基づいて前記所定の物体を認識した場合、報知を行うよう構成された、
    車載装置。
  9. 請求項8に記載の車載装置であって、
    前記画像取得ユニットは、前記車両が走行中であるときの前記車室内の画像である走行中画像(109)をさらに取得し、
    前記物体認識ユニットは、複数の前記走行中画像に基づき、認識した前記物体をトラッキングするように構成されたトラッキングユニット(53)を有し、前記車両が走行終了したとき、前記トラッキングユニットによるトラッキング結果に応じて前記物体を認識し、
    前記報知ユニットは、前記物体認識ユニットにより前記所定の物体を認識した場合、報知を行うよう構成された、
    車載装置。
  10. 請求項9に記載の車載装置であって、
    前記物体認識ユニットは、前記トラッキングユニットが行ったトラッキングの結果に基づき、前記施錠後画像において前記物体が存在する範囲を推測し、推測した前記範囲に対し、画像認識により前記物体を認識する処理を行い、
    前記報知ユニットは、前記物体認識ユニットにより前記所定の物体を認識した場合、報知を行うよう構成された、
    車載装置。
  11. 請求項9又は10に記載の車載装置であって、
    前記物体認識ユニットは、前記乗車前画像と前記乗車後画像との差分領域(Y)において物体(107)を認識しなかった場合、前記トラッキングユニットによるトラッキングを行わない、
    車載装置。
  12. 請求項9~11のいずれか1項に記載の車載装置であって、
    前記物体認識ユニットは、前記施錠後画像と前記停車後画像との差分領域(Z)を抽出する処理を行い、前記差分領域が抽出された場合は、前記差分領域において、画像認識により前記物体を認識し、
    前記報知ユニットは、前記車両のドアが施錠された際に前記車室内に認識した前記物体が残存している場合、報知を行う、
    車載装置。
  13. 請求項8~12のいずれか1項に記載の車載装置であって、
    前記報知ユニットは、前記クラウドを介し、前記車両のユーザの携帯端末へ、前記施錠後画像、又は前記施錠後画像を加工した画像を送信するように構成された、
    車載装置。
  14. 請求項8~13のいずれか1項に記載の車載装置であって、
    前記報知ユニットは、前記車両に設置された装置を用いて前記車両の周辺に向けて報知を行うように構成された、
    車載装置。
  15. 請求項1~14いずれか1項に記載の車載装置であって、
    前記報知ユニットは、前記車室内に設置された装置(21)を用いて前記車室内に向けて前記報知を行うように構成された、
    車載装置。
  16. 請求項1~15のいずれか1項に記載の車載装置であって、
    前記報知ユニットは、クラウド(5)を介し、前記車両のユーザの携帯端末(23)へ報知するように構成された、
    車載装置。
  17. 請求項1~16のいずれか1項に記載の車載装置であって、
    前記乗車前画像は、アイドリング状態にある前記車両に前記乗員が乗車する前の前記車室内の画像を含む、
    車載装置。
  18. 車両(9)に乗員が乗車する前の車室内の画像である乗車前画像(101)、及び前記車両に前記乗員が乗車した後の前記車室内の画像である乗車後画像(103)を、カメラ(15)を用いて取得し、
    前記乗車前画像と前記乗車後画像との差分領域(Y)を抽出し、前記差分領域において、画像認識により物体(107)を認識する処理を行い、
    前記物体が報知対象となる物体であるか否か、及び、前記物体が前記車室内に存在するか否かを判断し、
    前記物体が前記報知対象となる物体であり、前記物体が前記車室内に存在すると判断した場合、報知を行う、
    物体の報知方法。
  19. 請求項1~17のいずれか1項に記載の車載装置の制御部としてコンピュータを機能させるプログラム。
JP2021109220A 2021-06-30 2021-06-30 車載装置、物体の報知方法、及びプログラム Active JP7517272B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021109220A JP7517272B2 (ja) 2021-06-30 2021-06-30 車載装置、物体の報知方法、及びプログラム
PCT/JP2022/024352 WO2023276732A1 (ja) 2021-06-30 2022-06-17 車載装置、物体の報知方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021109220A JP7517272B2 (ja) 2021-06-30 2021-06-30 車載装置、物体の報知方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2023006558A true JP2023006558A (ja) 2023-01-18
JP2023006558A5 JP2023006558A5 (ja) 2023-05-17
JP7517272B2 JP7517272B2 (ja) 2024-07-17

Family

ID=84692363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021109220A Active JP7517272B2 (ja) 2021-06-30 2021-06-30 車載装置、物体の報知方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP7517272B2 (ja)
WO (1) WO2023276732A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4419672B2 (ja) 2003-09-16 2010-02-24 株式会社デンソー 車両内忘れ物防止装置
JP2012123491A (ja) 2010-12-06 2012-06-28 Fujitsu Ten Ltd 車載装置および忘れ物確認サービス
JP6167690B2 (ja) 2013-06-25 2017-07-26 日産自動車株式会社 車室内監視装置
KR101841948B1 (ko) * 2015-10-02 2018-03-26 엘지전자 주식회사 차량 내 분실물 예방 서비스 제공장치, 제공방법 및 이동 단말기
JP2020194416A (ja) 2019-05-29 2020-12-03 三菱電機株式会社 通知制御装置及び通知制御方法
JP7338397B2 (ja) 2019-10-18 2023-09-05 株式会社デンソー 車両制御装置

Also Published As

Publication number Publication date
JP7517272B2 (ja) 2024-07-17
WO2023276732A1 (ja) 2023-01-05

Similar Documents

Publication Publication Date Title
US10446011B2 (en) System and method for providing rear seat monitoring within a vehicle
US11210540B2 (en) System and method for providing rear seat monitoring within a vehicle
US11893804B2 (en) Method and device for protecting child inside vehicle, computer device, computer-readable storage medium, and vehicle
US11760360B2 (en) System and method for identifying a type of vehicle occupant based on locations of a portable device
US11410437B2 (en) System and method for removing false positives during determination of a presence of at least one rear seat passenger
WO2021212504A1 (zh) 车辆和车舱域控制器
CN107776529A (zh) 一种提醒车辆后座存在物品的系统及方法
US11724666B2 (en) System and method for remotely monitoring vehicle access
US20230083504A1 (en) Systems and methods for capturing images around vehicle for insurance claim processing
US11364868B2 (en) Vehicle control system and vehicle control method
US20240246547A1 (en) Artificial intelligence-enabled alarm for detecting passengers locked in vehicle
US12026959B2 (en) Systems and methods for deterrence of intruders
JP2008095441A (ja) 車両用セキュリティシステム
CN115662026A (zh) 针对遗留在车辆中的宠物的方法、装置和车辆
US11173859B2 (en) System and method for providing vehicle occupant monitoring
WO2023276732A1 (ja) 車載装置、物体の報知方法、及びプログラム
JP2019214249A (ja) 検知装置、コンピュータプログラム、検知方法及び学習モデル
JP7439797B2 (ja) 車載装置、物体の通知方法、及びプログラム
CN115848306B (zh) 一种车辆遗留人员的检测方法、检测装置与车辆
CN114809833B (zh) 开启车门的控制方法、车门控制装置及车门控制系统
US11653173B2 (en) Electronic device monitoring system
US20230350621A1 (en) Vehicle interface control
WO2023207704A1 (zh) 基于语音指令的车辆控制方法及相关装置
WO2023210433A1 (ja) 異常検出システム及び異常検出方法
US20230311812A1 (en) Control system and control method of control system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240617

R150 Certificate of patent or registration of utility model

Ref document number: 7517272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150