JP7439797B2 - 車載装置、物体の通知方法、及びプログラム - Google Patents

車載装置、物体の通知方法、及びプログラム Download PDF

Info

Publication number
JP7439797B2
JP7439797B2 JP2021104882A JP2021104882A JP7439797B2 JP 7439797 B2 JP7439797 B2 JP 7439797B2 JP 2021104882 A JP2021104882 A JP 2021104882A JP 2021104882 A JP2021104882 A JP 2021104882A JP 7439797 B2 JP7439797 B2 JP 7439797B2
Authority
JP
Japan
Prior art keywords
vehicle
image
vehicle device
unit
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021104882A
Other languages
English (en)
Other versions
JP2023003665A5 (ja
JP2023003665A (ja
Inventor
浩一郎 竹内
正也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021104882A priority Critical patent/JP7439797B2/ja
Priority to PCT/JP2022/023959 priority patent/WO2022270379A1/ja
Publication of JP2023003665A publication Critical patent/JP2023003665A/ja
Publication of JP2023003665A5 publication Critical patent/JP2023003665A5/ja
Application granted granted Critical
Publication of JP7439797B2 publication Critical patent/JP7439797B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は車載装置、物体の通知方法、及びプログラムに関する。
車両の外部環境認識装置が特許文献1に開示されている。車両の外部環境認識装置は、車両の周囲を撮影し、画像を生成する。車両の外部環境認識装置は、画像に対し画像認識を行い、物体を認識する。車両の外部環境認識装置は、車両の外部環境に応じてカメラの制御パラメータを切り替える。
特開2014-178836号公報
車室内をカメラで撮影して得られた画像に対し画像認識を行い、車室内にある物体を認識することが考えられる。画像認識の精度は、車室内の環境、カメラから物体までの距離等に影響される。そのため、特許文献1に記載の技術のようにカメラの制御パラメータを切り替えたとしても、画像認識の精度が低いおそれがある。
本開示の1つの局面では、車室内にある物体を高精度に認識することができる車載装置、物体の通知方法、及びプログラムを提供することが好ましい。
本開示の1つの局面は、車載装置(3)である。車載装置は、通信ユニット(45)を介して、ユーザの携帯端末(23)と通信可能なクラウド(5)との間で通信を行うように構成される。車載装置は、カメラ(15)により車両(9)の車室(55)内を撮影した画像を取得するように構成された画像取得ユニット(43)と、前記車両の環境である車両環境、及び、前記車室内にある物体(57)の前記カメラを基準とする相対位置の少なくとも一方を含む選択要因を取得するように構成された選択要因取得ユニット(47)と、前記選択要因取得ユニットが取得した前記選択要因に応じて画像認識モデルを選択するように構成されたモデル選択ユニット(49)と、前記画像取得ユニットが取得した前記画像に対し、前記モデル選択ユニットが選択した前記画像認識モデルを用いて画像認識を行い、前記物体を認識する処理を行うように構成された物体認識ユニット(51)と、を備える。前記物体認識ユニットが所定の条件を満たす前記物体を認識した場合、前記携帯端末への報知に繋がる前記物体の認識結果に関する情報を、前記通信ユニットを介して前記クラウドへ通知する。
本開示の1つの局面である車載装置は、車両環境や物体の相対位置に応じて、適切な画像認識モデルを選択し、画像認識を行うことができる。そのため、車載装置は、車室内にある物体を高精度に認識することができる。その結果、車載装置は、携帯端末への通知を正確に行うことができる。
本開示の別の局面は、カメラ(15)により車両(9)の車室(55)内を撮影した画像を取得し、前記車両の環境である車両環境、及び、前記車室内にある物体(57)の前記カメラを基準とする相対位置の少なくとも一方を含む選択要因を取得し、前記選択要因に応じて画像認識モデルを選択し、前記画像に対し、選択した前記画像認識モデルを用いて画像認識を行い、前記物体を認識する処理を行い、所定条件を満たす前記物体を認識した場合、ユーザの携帯端末(23)への報知に繋がる前記物体の認識結果に関する情報を、通信ユニットを介して、前記携帯端末と通信可能なクラウド(5)へ通知する、物体の通知方法である。
本開示の別の局面である物体の通知方法によれば、車両環境や物体の相対位置に応じて、適切な画像認識モデルを選択し、画像認識を行うことができる。そのため、車室内にある物体を高精度に認識することができる。その結果、携帯端末への通知を正確に行うことができる。
モビリティIoTシステムの構成を表すブロック図である。 車載装置の制御部における機能的構成を表すブロック図である。 車室内におけるセンサ、カメラ、及び物体の配置を表す説明図である。 車載装置が実行する処理を表すフローチャートである。
本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.モビリティIoTシステム1の構成
モビリティIoTシステム1の構成を、図1に基づき説明する。IoTは、Internet of Thingsの略である。モビリティIoTシステム1は、車載装置3と、クラウド5と、サービス提供サーバ7と、を備える。なお、図1では便宜上、1のみの車載装置3を記載しているが、モビリティIoTシステム1は、例えば、複数の車載装置3を備える。複数の車載装置3は、それぞれ、異なる車両9に搭載されている。
車載装置3は、車両9に搭載された通信機19を介して、クラウド5と通信可能である。なお、車載装置3及び車両9の詳しい構成は後述する。
クラウド5は、車載装置3、サービス提供サーバ7、及び携帯端末23と通信可能である。携帯端末23は、例えば、車両9のユーザが所持する携帯端末である。携帯端末23として、例えば、スマートフォン、タブレット端末、ノートPC等が挙げられる。
クラウド5は、制御部25と、通信部27と、記憶部29とを備える。制御部25は、CPU31と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ33とする)とを備える。制御部25の機能は、メモリ33に格納されたプログラムをCPU31が実行することにより実現される。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。通信部27は、通信機19及び携帯端末23との間で無線通信を行うことができる。記憶部29は情報を記録することができる。
サービス提供サーバ7は、クラウド5と通信可能である。サービス提供サーバ7は、例えば、車両9の運行を管理するサービス等を提供するために設置されたサーバである。なお、モビリティIoTシステム1は、サービス内容が互いに異なる複数のサービス提供サーバ7を備えてもよい。
クラウド5は、複数の車載装置3のそれぞれから通信機19を介して送信された車両9のデータを収集する。クラウド5は、車両9ごとに、収集したデータを記憶部29に記憶する。
クラウド5は、記憶部29に記憶されている車両9のデータに基づき、デジタルツインを作成する。デジタルツインは、正規化されたインデックスデータである。サービス提供サーバ7は、デジタルツインから取得したインデックスデータを用いて記憶部29に記憶されている所定車両のデータを取得することができる。サービス提供サーバ7は、車両9の制御内容を決定し、制御内容に対応する指示をクラウド5に送信する。クラウド5は、指示に基づき、車両9へ制御内容を送信する。
2.車載装置3及び車両9の構成
車載装置3及び車両9の構成を、図1~図3に基づき説明する。図1に示すように、車載装置3は、制御部35と、記憶部37と、時計38と、を備える。制御部35は、CPU39と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ41とする)とを備える。制御部35の機能は、メモリ41に格納されたプログラムをCPU39が実行することにより実現される。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。
記憶部37は情報を記憶することができる。記憶部37には、複数の画像認識モデルが記憶されている。画像認識モデルは、車両9に搭載されたカメラ15を用いて生成した画像に対し画像認識を行い、物体57を識別するために使用される。時計38は、時刻を表す時刻情報を制御部35に送信する。
図2に示すように、制御部35の機能的な構成は、画像取得ユニット43と、通信ユニット45と、選択要因取得ユニット47と、モデル選択ユニット49と、物体認識ユニット51と、車両状態取得ユニット53と、を含む。
画像取得ユニット43は、カメラ15を用いて車両9の車室55内を撮影し、画像を取得する。通信ユニット45は、クラウド5との間で通信を行う。
選択要因取得ユニット47は、選択要因を取得する。選択要因は、車両9の環境である車両環境、及び、車両9の車室55内にある物体57の、カメラ15を基準とする相対位置(以下では物体の相対位置とする)の少なくとも一方を含む。選択要因は、カメラ15が撮影して生じる画像に対して画像認識を行った場合の物体認識精度に影響する。
車両環境は、カメラ15が撮影して生じる画像に対して画像認識を行った場合の認識精度に影響する車両環境である。車両環境は、例えば、車室55内の明るさ、車両9の周囲の明るさ、車室55に光が入射する方向等に影響する車両環境である。車両環境として、例えば、車両9の位置、車両9の向き又は進行方向、現在時刻、天候、及びルームランプ17の状態等が挙げられる。
車両9の位置、及び車両9の進行方向は、車室55内の明るさ、及び、車室55に光が入射する方向に影響する。現在時刻は、車室55内の明るさ、及び、車室55に光が入射する方向に影響する。天候は、車室55内の明るさに影響する。天候として、例えば、晴天、曇天、雨天、霧等が挙げられる。ルームランプ17の状態は、車室55内の明るさに影響する。ルームランプ17の状態として、例えば、点灯している状態、消灯している状態、光量が特定の範囲内である状態等が挙げられる。ルームランプ17が複数ある場合は、それぞれのループランプ17の状態が車両環境に該当する。
物体の相対位置は、カメラ15から物体57までの距離と、カメラ15を基準とする物体57の方向とから構成される。物体の相対位置は、カメラ15が生成した画像における物体57の大きさに影響する。物体57がカメラ15から遠いほど、カメラ15が生成した画像において物体57は小さい。また、物体の相対位置に加え、上記車両環境として、例えば、車室55に光が入射する方向が分かると、物体57に光が照射している状態や、物体57の背後から光が照射し、逆光となっている状態等が分かる。物体の相対位置は、カメラ15が撮影して生じる画像に対して画像認識を行った場合の認識精度に影響する。
記憶部37に記憶されている複数の画像認識モデルは、それぞれ、選択要因と対応付けられている。画像認識モデルは、例えば、それと対応付けられている選択要因において学習して得られた画像認識モデルである。画像認識モデルを、それと対応付けられている選択要因において使用すると、物体57を高精度に認識することができる。
例えば、画像認識モデルを、それと対応付けられている選択要因に含まれる車両環境において使用すると、物体57を高精度に認識することができる。また、例えば、画像認識モデルを、それと対応付けられている選択要因に含まれる物体の相対位置において使用すると、物体57を高精度に認識することができる。
モデル選択ユニット49は、選択要因取得ユニット47が取得した選択要因に応じて画像認識モデルを選択する。
例えば、モデル選択ユニット49は、車両環境に応じて画像認識モデルを選択する。具体的には、モデル選択ユニット49は、夜間に車室55内が暗い場合は、暗いカメラ画像向けの画像認識モデルを選択する。また、モデル選択ユニット49は、昼間に車室55内が明るい場合、夕日によって車室55内が明るい場合、夜間であるがルームランプ17の点灯により車室55内が明るい場合等のそれぞれにおいて、場合に適した画像認識モデルを選択する。
また、例えば、モデル選択ユニット49は、物体の相対位置に応じて画像認識モデルを選択する。具体的には、モデル選択ユニット49は、カメラ15から物体57までの距離が遠い場合は、物体57が小さく撮影されたカメラ画像向けの画像認識モデルを選択する。また、モデル選択ユニット49は、カメラ15から物体57までの距離が近い場合は、物体57が大きく撮影されたカメラ画像向けの画像認識モデルを選択する。また、モデル選択ユニット49は、物体57がカメラ15の正面にある場合、物体57が、カメラ15を基準として斜めや側方に近い場合等のそれぞれにおいて、場合に適した画像認識モデルを選択する。選択要因として、車両環境及び物体の相対位置を用いて画像認識モデルを選択することで、物体をさらに高精度に認識することができる。
物体認識ユニット51は、画像取得ユニット43が取得した画像に対し、モデル選択ユニット49が選択した画像認識モデルを用いて画像認識を行い、物体57を認識する処理を行う。
車両状態取得ユニット53は、車両ECU11から車両9の状態を表す信号を取得する。車両9の状態として、例えば、エンジンオン、走行開始、停車、キーロック等が挙げられる。
図1に示すように、車両9は、車載装置3に加えて、車両ECU11、センサ13、カメラ15、ルームランプ17、通信機19、及びナビ21を備える。車載装置3は、車両ECU11、センサ13、カメラ15、ルームランプ17、通信機19、及びナビ21のそれぞれと、通信を行うことができる。
車両ECU11は、車両9の状態を検出し、検出した状態を表す信号を車両状態取得ユニット53に送信する。例えば、車両ECU11は、車両9の車速を検出する。車両9の車速が0Km/hから閾値以上に変化したとき、車両ECU11は、走行開始を表す信号を車両状態取得ユニット53に送信する。また、車両9の車速が閾値以上から0Km/hに変化したとき、車両ECU11は、停車を表す信号を車両状態取得ユニット53に送信する。
車両ECU11は、例えば、シフトの位置を検出する。シフトの位置がパーキングに変化したとき、車両ECU11は、停車を表す信号を車両状態取得ユニット53に送信する。
図3に示すように、センサ13及びカメラ15は、それぞれ、車両9の車室55内に設置されている。センサ13の位置はカメラ15の位置に近い。例えば、センサ13及びカメラ15は、フロントガラスの上部、又はルームミラー付近に設置される。また、センサ13の位置を基準とするカメラ15の相対位置は一定である。
センサ13は、例えば、ミリ波レーダである。センサ13は、センサ13の検出結果を、レファレンスデータと対比することで、車室55内の物体57を検出することができる。レファレンスデータとは、車室55内に物体57が存在しない場合のセンサ13の検出結果である。物体57として、例えば、物(人及び動物を除く)、人、動物等が挙げられる。物は、例えば、車両9のユーザが持ち運び可能な物である。人として、例えば、幼児が挙げられる。センサ13は、物体の有無及び物体の相対位置を算出することができる。
カメラ15は、車室55内に設置されている。カメラ15の撮影範囲は、車室55内のうち、物体57が置かれる可能性が高い範囲を含む。カメラ15の撮影範囲は、例えば、運転席、助手席、後部座席、及びダッシュボード等の一部又は全部を含む。
ルームランプ17は車室55内に1つ又は複数設置されている。ルームランプ17は、点灯及び消灯が可能である。また、ルームランプ17は光量調整が可能である。ルームランプ17は、ルームランプ17の状態を表す信号を制御部35に送信する。
通信機19は、クラウド5の通信部27との間で通信を行うことができる。ナビ21は、通常のナビゲーションシステムの機能を有する。ナビ21は、測位衛星から受信したデータに基づき、車両9の位置、及び車両9の進行方向を取得することができる。
3.車載装置3が実行する処理
車載装置3が実行する処理を図4に基づき説明する。図4に示す処理は、例えば、スリープ状態にあった車載装置3が起動したときに実行される。車載装置3は、例えば、以下のように起動する。車両9のドアのロックが解除されたとき、車両ECU11が起動する。起動した車両ECU11は、車載装置3を起動する。なお、車載装置3は、図4に示す処理が終了したとき、スリープ状態となる。
図4のステップ1では、車両状態取得ユニット53が、車両ECU11から取得した信号に基づき、車両9のエンジンがオンになったか否かと、車両9が走行を開始したか否かと、を判断する。車両9のエンジンがオンになったと判断し、かつ、車両9が走行を開始したと判断した場合、本処理はステップ2に進む。車両9のエンジンがオンでないと判断した場合、又は、車両9が走行を開始していないと判断した場合、本処理はステップ1の前に戻る。
ステップ2では、選択要因取得ユニット47が、センサ13を用いて、物体の相対位置を取得する。
ステップ3では、選択要因取得ユニット47が車両環境を取得する。例えば、選択要因取得ユニット47は、ナビ21を用いて、車両9の位置、及び車両9の進行方向を取得する。また、選択要因取得ユニット47は、例えば、時計38を用いて現在時刻を取得する。また、選択要因取得ユニット47は、例えば、通信機19を介してクラウド5と通信を行うことにより、天候を取得する。天候は、例えば、車両9の位置における現時点での天候である。また、選択要因取得ユニット47は、例えば、ルームランプ17から、ルームランプ17の状態を取得する。また、選択要因取得ユニット47は、例えば、カメラ15で車室55内を撮影し、撮影した画像を解析し、車室55内の明るさを検出してもよい。なお、ナビ21、時計38、及びルームランプ17は、車両9に搭載された装置に対応する。クラウド5は車両9の外部に対応する。なお、選択要因取得ユニット47は、ステップ2、3の処理のうちの一方のみを行ってもよい。
ステップ4では、モデル選択ユニット49が、選択要因に応じて画像認識モデルを選択する。選択要因は、前記ステップ2で取得した物体の相対位置と、前記ステップ3で取得した車両環境との両方を含む。
上述したように、記憶部37に記憶されている複数の画像認識モデルは、それぞれ、選択要因に対応付けられている。モデル選択ユニット49は、記憶部37に記憶されている複数の画像認識モデルの中から、選択要因に対応付けられた画像認識モデルを選択する。
ステップ5では、車両状態取得ユニット53が、車両ECU11から取得した信号に基づき、車両9の走行が終了したか否かを判断する。車両9の走行が終了したと判断した場合、本処理はステップ6に進む。車両9の走行が終了していないと判断した場合、本処理はステップ2に進む。
ステップ6では、車両状態取得ユニット53が、車両ECU11から取得した信号に基づき、車両9が停車したか否かと、キーロックがオンになったか否かと、を判断する。車両9が停車したと判断し、かつ、キーロックがオンになったと判断した場合、本処理はステップ7に進む。車両9が停車していないと判断した場合、又は、キーロックがオンになっていないと判断した場合、本処理はステップ6の前に戻る。
ステップ7では、画像取得ユニット43が、カメラ15を用いて車室55内を撮影し、画像を取得する。
ステップ8では、物体認識ユニット51が、前記ステップ7で取得した画像に対し、前記ステップ4で選択した画像認識モデルを用いて画像認識を行い、物体57を認識する処理を行う。
ステップ9では、前記ステップ8の処理において特定の物体57を認識したか否かを、物体認識ユニット51が判断する。特定の物体57を認識したと判断した場合、本処理はステップ10に進む。特定の物体57とは、例えば、子供、動物、及び手荷物等である。特定の物体57を認識しなかったと判断した場合、本処理は終了する。特定の物体57は、所定条件を満たす物体に対応する。
ステップ10では、通信ユニット45は、クラウド5から携帯端末23へ通知を行わせるため、特定の物体57に関する情報をクラウド5へ送信する。当該情報を受信したクラウド5は、携帯端末23へ、車室55内に子供、ペット、又は手荷物が残存している旨を通知する。通信ユニット45が送信する情報は、携帯端末23への報知に繋がる物体57の認識結果に関する情報に対応する。携帯端末23は、例えば、報知画像を表示したり、音声又は振動等を発生させたりする。車両9のユーザは、報知画像、音声、振動等により、車室55内に物体57があることを知ることができる。通信ユニット45は、例えば、前記ステップ7で取得したカメラ画像、又はそれを加工した画像を、クラウド5へ送信する。クラウド5は、それらの画像を携帯端末23へ送信する。携帯端末23は、前記ステップ7で取得したカメラ画像、又はそれを加工した画像を表示する。車両9のユーザは、表示された画像を見ることで、物体57が車室55内にあること、及び、物体57が何であるかを知ることができる。
4.車載装置3が奏する効果
(1A)車載装置3は、カメラ15を用いて車室55内を撮影し、画像を取得する。車載装置3は、選択要因を取得する。車載装置3は、選択要因に応じて画像認識モデルを選択する。車載装置3は、取得した画像に対し、選択した画像認識モデルを用いて画像認識を行い、物体57を認識する処理を行う。車載装置3は、物体57を認識した場合、クラウド5を介して携帯端末23へ報知する。
車載装置3は、車両環境や物体の相対位置に応じて、適切な画像認識モデルを選択し、画像認識を行うことができる。そのため、車載装置3は、物体57を高精度に認識することができる。その結果、車載装置3は、携帯端末23への報知を正確に行うことができる。
(1B)車載装置3は、前記ステップ7で画像を取得するよりも前に、前記ステップ2及び前記ステップ3で選択要因を取得する。また、車載装置3は、前記ステップ7で画像を取得するよりも前に、前記ステップ4で画像認識モデルを選択する。
そのため、画像を取得した後に選択要因を取得したり、画像を取得した後に画像認識モデルを選択したりする場合よりも、画像を取得してから画像認識を完了するまでの時間を短縮できる。
(1C)選択要因は、車両9の位置、車両9の進行方向、現在時刻、及び天候を含む。そのため、車載装置3は、車両9の位置、車両9の進行方向、時刻、及び天候に応じて適切な画像認識モデルを選択することができる。
(1D)選択要因は、ルームランプ17の状態を含む。そのため、車載装置3は、ルームランプ17の状態に応じて適切な画像認識モデルを選択することができる。
(1E)車載装置3は、車両9の外部から車両環境を取得する。車両9の外部とは、例えば、クラウド5である。そのため、車載装置3は、車両9において取得することが困難な車両環境を取得することができる。
(1F)車載装置3は、車両9に搭載された装置から車両環境を取得する。車両9に搭載された装置とは、例えば、車載装置3、ルームランプ17、ナビ21、時計38等である。そのため、車載装置3は、多様な車両環境を取得することができる。
(1G)車載装置3は、センサ13を用いて、物体の相対位置を取得する。そのため、車載装置3は、正確かつ容易に物体の相対位置を取得することができる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)第1実施形態では、選択要因は、車両環境と物体の相対位置との両方を含んでいた。選択要因は、車両環境は含むが、物体の相対位置は含まなくてもよい。この場合も、車載装置3は、車両環境に応じて適切な画像認識モデルを選択し、画像認識を行うことができる。
また、選択要因は、物体の相対位置は含むが、車両環境は含まなくてもよい。この場合も、車載装置3は、物体の相対位置に応じて適切な画像認識モデルを選択し、画像認識を行うことができる。
車両環境は、車両9の位置、車両9の進行方向、時刻、及び天候のうちの1以上を含まなくてもよい。車両環境は、他の要素をさらに含んでいてもよい。
(2)第1実施形態では、車載装置3は、車両9が停車し、かつ、キーロックがオンになったときに画像を取得した。画像を取得するタイミングは、他のタイミングであってもよい。例えば、車載装置3は、エンジンがオンになる前、アイドリング状態のとき、走行中、停車からキーロックオンまでの期間等に画像を取得してもよい。この場合も、第1実施形態と同様の効果を奏することができる。
(3)第1実施形態では、車載装置3は、前記ステップ7で画像を取得するよりも前に、前記ステップ2及び前記ステップ3で選択要因を取得し、前記ステップ4で画像認識モデルを選択した。
車載装置3は、画像を取得した後に、選択要因を取得し、画像認識モデルを選択してもよい。また、車載装置3は、選択要因の取得、画像の取得、画像認識モデルの選択の順番で処理を行ってもよい。これらの場合でも、車載装置3は、第1実施形態の効果(1A)、(1C)~(1G)の効果を奏することができる。
(4)第1実施形態では、センサ13を用いて物体の相対位置を取得した。センサ13はミリ波レーダであった。センサ13はミリ波レーダ以外のセンサであってもよい。また、物体の相対位置を取得する方法は、他の方法であってもよい。例えば、カメラ15の画像に基づき、物体の相対位置を取得してもよい。
(5)前記ステップ10において、車載装置3は、携帯端末23への報知に加えて、他の処理を行ってもよい。他の処理として、例えば、車両9のクラクションを鳴らす処理等が挙げられる。また、物体57が人間の幼児である場合、車載装置3は、前記ステップ10において、車両9のエアコンを動作させて車室55の温度を下げる、窓を開ける、ドアロックを解除する等の処理を行うことができる。
(6)車載装置3は、センサ13、カメラ15、通信機19、及びナビ21のうちの1以上の機能を備えていてもよい。
(7)選択要因取得ユニット47は、車両9の走行中に選択要因を取得してもよい。モデル選択ユニット49は、車両9の走行中に画像認識モデルを選択してもよい。物体認識ユニット51は、車両9の走行後、車両9が駐車しているときに、物体を認識する処理を行ってもよい。この場合、駐車している車両9の中に物体57が置き去りにされた場合に通知を行うことができる。
(8)本開示に記載の制御部35及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部35及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。制御部35に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(9)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(10)上述した車載装置3の他、当該車載装置3を構成要素とするシステム、当該車載装置3の制御部35としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物体の認識方法等、種々の形態で本開示を実現することもできる。
1…モビリティIoTシステム、3…車載装置、5…クラウド、9…車両、13…センサ、15…カメラ、23…携帯端末、43…画像取得ユニット、45…通信ユニット、47…選択要因取得ユニット、49…モデル選択ユニット、51…物体認識ユニット、53…車両状態取得ユニット、55…車室、57…物体

Claims (10)

  1. 通信ユニット(45)を介して、ユーザの携帯端末(23)と通信可能なクラウド(5)との間で通信を行うように構成された車載装置(3)であって、
    カメラ(15)により車両(9)の車室(55)内を撮影した画像を取得するように構成された画像取得ユニット(43)と、
    前記車両の環境である車両環境、及び、前記車室内にある物体(57)の前記カメラを基準とする相対位置の少なくとも一方を含む選択要因を取得するように構成された選択要因取得ユニット(47)と、
    前記選択要因取得ユニットが取得した前記選択要因に対応付けられた画像認識モデルを選択するように構成されたモデル選択ユニット(49)と、
    前記画像取得ユニットが取得した前記画像に対し、前記モデル選択ユニットが選択した前記画像認識モデルを用いて画像認識を行い、前記物体を認識する処理を行うように構成された物体認識ユニット(51)と、
    を備え、
    前記物体認識ユニットが所定条件を満たす前記物体を認識した場合、前記携帯端末への報知に繋がる前記物体の認識結果に関する情報を、前記通信ユニットを介して前記クラウドへ通知する、
    車載装置。
  2. 請求項1に記載の車載装置であって、
    前記選択要因取得ユニットは、前記画像取得ユニットが前記画像を取得する前に、前記選択要因を取得するように構成され、
    前記モデル選択ユニットは、前記画像取得ユニットが前記画像を取得する前に、前記画像認識モデルを選択するように構成された、
    車載装置。
  3. 請求項1に記載の車載装置であって、
    前記選択要因取得ユニットは、前記車両の走行中に前記選択要因を取得するように構成され、
    前記モデル選択ユニットは、前記車両の走行中に前記画像認識モデルを選択するように構成され、
    前記物体認識ユニットは、前記車両の走行後、前記車両が駐車しているときに、前記物体を認識する処理を行うように構成された、
    車載装置。
  4. 請求項1~3のいずれか1項に記載の車載装置であって、
    前記選択要因は、前記車両の位置、前記車両の進行方向、現在時刻、及び天候から成る群から選択される1以上を含む前記車両環境を含む、
    車載装置。
  5. 請求項1~4のいずれか1項に記載の車載装置であって、
    前記選択要因は、前記車室に設けられたルームランプ(17)の状態を含む前記車両環境を含む、
    車載装置。
  6. 請求項1~5のいずれか1項に記載の車載装置であって、
    前記選択要因取得ユニットは、前記車両の外部(5)から前記車両環境を取得するように構成された、
    車載装置。
  7. 請求項1~6のいずれか1項に記載の車載装置であって、
    前記選択要因取得ユニットは、前記車両に搭載された装置(3、17、21)から前記車両環境を取得するように構成された、
    車載装置。
  8. 請求項1~7のいずれか1項に記載の車載装置であって、
    前記選択要因取得ユニットは、センサ(13)を用いて、前記相対位置を取得するように構成された、
    車載装置。
  9. カメラ(15)により車両(9)の車室(55)内を撮影した画像を取得し、
    前記車両の環境である車両環境、及び、前記車室内にある物体(57)の前記カメラを基準とする相対位置の少なくとも一方を含む選択要因を取得し、
    前記選択要因に対応付けられた画像認識モデルを選択し、
    前記画像に対し、選択した前記画像認識モデルを用いて画像認識を行い、前記物体を認識する処理を行い、
    所定条件を満たす前記物体を認識した場合、ユーザの携帯端末(23)への報知に繋がる前記物体の認識結果に関する情報を、通信ユニットを介して、前記携帯端末と通信可能なクラウド(5)へ通知する、
    物体の通知方法。
  10. 請求項1~8のいずれか1項に記載の車載装置の制御部としてコンピュータを機能させるプログラム。
JP2021104882A 2021-06-24 2021-06-24 車載装置、物体の通知方法、及びプログラム Active JP7439797B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021104882A JP7439797B2 (ja) 2021-06-24 2021-06-24 車載装置、物体の通知方法、及びプログラム
PCT/JP2022/023959 WO2022270379A1 (ja) 2021-06-24 2022-06-15 車載装置、物体の通知方法、プログラム、及び車両用システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021104882A JP7439797B2 (ja) 2021-06-24 2021-06-24 車載装置、物体の通知方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2023003665A JP2023003665A (ja) 2023-01-17
JP2023003665A5 JP2023003665A5 (ja) 2023-05-17
JP7439797B2 true JP7439797B2 (ja) 2024-02-28

Family

ID=84544289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021104882A Active JP7439797B2 (ja) 2021-06-24 2021-06-24 車載装置、物体の通知方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP7439797B2 (ja)
WO (1) WO2022270379A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002347476A (ja) 2001-05-28 2002-12-04 Mitsubishi Motors Corp 車載ディスプレイ防眩機構
JP2014215877A (ja) 2013-04-26 2014-11-17 株式会社デンソー 物体検出装置
JP2019123421A (ja) 2018-01-18 2019-07-25 株式会社デンソー 乗員検知システム、照明制御システム、及び車内照明方法
JP2019172191A (ja) 2018-03-29 2019-10-10 矢崎総業株式会社 車内監視モジュール、及び、監視システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7071316B2 (ja) * 2019-07-19 2022-05-18 株式会社日立製作所 車両用情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002347476A (ja) 2001-05-28 2002-12-04 Mitsubishi Motors Corp 車載ディスプレイ防眩機構
JP2014215877A (ja) 2013-04-26 2014-11-17 株式会社デンソー 物体検出装置
JP2019123421A (ja) 2018-01-18 2019-07-25 株式会社デンソー 乗員検知システム、照明制御システム、及び車内照明方法
JP2019172191A (ja) 2018-03-29 2019-10-10 矢崎総業株式会社 車内監視モジュール、及び、監視システム

Also Published As

Publication number Publication date
JP2023003665A (ja) 2023-01-17
WO2022270379A1 (ja) 2022-12-29

Similar Documents

Publication Publication Date Title
KR101976419B1 (ko) 차량용 도어 제어 장치 및 차량
US10011216B1 (en) Auto turn signal initiation based on lane change and driver history
US10196068B2 (en) Convenience apparatus for vehicle and vehicle
US10525873B2 (en) Turn by turn activation of turn signals
JP2019508764A (ja) 駐車時アラートを生成するためのシステム及び方法
US10220704B2 (en) Method and apparatus for door status detection
US10713501B2 (en) Focus system to enhance vehicle vision performance
KR101969805B1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
JP2017140890A (ja) 情報処理装置、情報処理方法、及び、プログラム
US10829034B2 (en) Vehicle control device
US11364868B2 (en) Vehicle control system and vehicle control method
CN107878465B (zh) 移动体控制装置和移动体
US11040656B2 (en) Alert apparatus for vehicle
CN106314424A (zh) 基于汽车的超车辅助方法、装置及汽车
CN107640107B (zh) 用于车辆的行驶前检测的设备及方法
US11951997B2 (en) Artificial intelligence-enabled alarm for detecting passengers locked in vehicle
JP2020138701A (ja) 制御装置
CN115743031A (zh) 用于侵入者的威慑的系统和方法
JP7439797B2 (ja) 車載装置、物体の通知方法、及びプログラム
CN104508595B (zh) 提供多级对准稳定性指示的车辆成像系统
US20190299848A1 (en) User guidance device
JP7470967B2 (ja) システム、プログラム、機械学習方法、及び機械学習モデル等
CN115131749A (zh) 图像处理装置、图像处理方法以及计算机可读取存储介质
JP2019172241A (ja) ユーザ誘導装置
US11914914B2 (en) Vehicle interface control

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R151 Written notification of patent or utility model registration

Ref document number: 7439797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151