JP7351889B2 - 車室内監視・状況理解感知方法及びそのシステム - Google Patents

車室内監視・状況理解感知方法及びそのシステム Download PDF

Info

Publication number
JP7351889B2
JP7351889B2 JP2021195974A JP2021195974A JP7351889B2 JP 7351889 B2 JP7351889 B2 JP 7351889B2 JP 2021195974 A JP2021195974 A JP 2021195974A JP 2021195974 A JP2021195974 A JP 2021195974A JP 7351889 B2 JP7351889 B2 JP 7351889B2
Authority
JP
Japan
Prior art keywords
image
vehicle interior
result
processing unit
arithmetic processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021195974A
Other languages
English (en)
Other versions
JP2023082303A (ja
Inventor
義傑 林
Original Assignee
財団法人車輌研究測試中心
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財団法人車輌研究測試中心 filed Critical 財団法人車輌研究測試中心
Priority to JP2021195974A priority Critical patent/JP7351889B2/ja
Publication of JP2023082303A publication Critical patent/JP2023082303A/ja
Application granted granted Critical
Publication of JP7351889B2 publication Critical patent/JP7351889B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車室内監視・状況理解感知方法及びそのシステムに関し、特に車室内外及び車室内の人間の行動を監視することができ、且つ車両と車室内の人間との間の能動的なマンマシンインタラクションを有する車室内監視・状況理解感知方法及びそのシステムに関する。
経済及び科学技術の迅速的な発展に伴い、各都市及び道路で走行する車両も多くなっている。しかしながら、生活上のストレス及び精神的緊張状態の影響によって、疲労運転、運転時の注意力の低下及び乗員行動の異常を引き起こしやすく、更に車室外の突発事態に遭遇する。従って、車室内外の監視及び車両環境の感知によって車両運転時の安全性を大幅に向上させることができる。
近年、車両に適用される運転者監視システム(Driver Monitoring System;DMS)及び視覚的質問応答(Visual Question Answering;VQA)は、日々発展している。しかしながら、DMSの監視範囲は、かなり限定されており、且つ現在車両市場の動向としては、広視野(Field Of View;FOV)での監視能力の実現が主に注目されている。一方、従来のVQAは、依然として車両と人間との間の能動的なマンマシンインタラクションを欠いている。
また、視覚情報に基づくDMSは、通常、機械視覚技術又は検知器によって運転者の顔特徴及び視線方向を検出することで運転者の精神状態を判定するが、従来の運転者監視方法は、検出過程で車室内の環境及び撮像レンズの撮影角度の影響を受けやすく、例えば、薄暗い光線で評価する場合に誤判定を引き起こしやすく、検出結果の有効性及び精度が低下する。
これに鑑み、従来のDMS及びVQAに存在する問題に対して、車室内の運転者及び乗員を効果的に監視すると共に車両と人間との間の能動的なマンマシンインタラクションを行うことができる車室内監視・状況理解感知方法及びそのシステムを如何に確立するかは、実に人々が切望していることであり、関連業者が鋭意研究しなければならない目標及び方向でもある。
従って、本発明の目的は、敵対的生成ネットワークモデルによって車室内画像を適正露光値に調整した後、運転者又は乗員に顔認識及び人体姿勢検出を行うことにより、検出結果の精度を確保する車室内監視・状況理解感知方法及びそのシステムを提供する。また、本発明は、車室内外の画像情報と音声情報を整合して車両と人間との間の能動的なマンマシンインタラクションを達成し、更に車室内外のシーンの解析及び安全性の向上を実現する。
本発明の一実施形態によれば、車室内を監視して状況理解結果を感知するための車室内監視・状況理解感知方法であって、第1の撮影ユニットが車室内からオーバー露光画像、適正露光画像及び低露光画像を含む車室内画像をキャプチャして車室内画像を記憶ユニットに記憶するように駆動する車室内画像キャプチャ工程と、演算処理ユニットが記憶ユニットからの車室内画像のオーバー露光画像、適正露光画像及び低露光画像に基づいて敵対的生成ネットワークモデルを確立するように駆動する敵対的生成ネットワークモデル確立工程と、演算処理ユニットが敵対的生成ネットワークモデルに基づいて車室内画像を調整して適正露光画像に近似する近似画像を生成するように駆動する画像調整工程と、演算処理ユニットが顔認識モデル及び人体姿勢検出モデルに基づいて近似画像を処理して顔認識結果及び人体姿勢検出結果を生成するように駆動する車室内監視工程と、第2の撮影ユニットが車室外画像をキャプチャして車室外画像を記憶ユニットに記憶するように駆動し、且つオーディオユニットが車室内から音声情報をキャプチャして音声情報を記憶ユニットに記憶するように駆動する車室外画像及び音声キャプチャ工程と、演算処理ユニットが状況理解モデルに基づいて近似画像、車室外画像及び音声情報のうちの少なくとも1つを処理して状況理解結果を感知するように駆動する状況理解感知工程と、を含む車室内監視・状況理解感知方法を提供する。
それにより、本発明の車室内監視・状況理解感知方法は、オーバー露光画像、適正露光画像及び低露光画像に基づいて敵対的生成ネットワークモデルを確立することにより、車室内画像を適正露光値に調整し、更にその後で感知された状況理解結果が高い精度を有することを確保する。
前記実施形態の他の実施例としては、前記敵対的生成ネットワークモデル確立工程は、演算処理ユニットがオーバー露光画像に基づいてオーバー露光弁別器を確立するように駆動するオーバー露光弁別器確立工程と、演算処理ユニットが低露光画像に基づいて低露光弁別器を確立するように駆動する低露光弁別器確立工程と、を含み、敵対的生成ネットワークモデルは、生成器、オーバー露光弁別器及び低露光弁別器で構成される。
前記実施形態の他の実施例としては、前記画像調整工程は、演算処理ユニットがオーバー露光画像及び低露光画像を生成器に入力して融合画像を生成するように駆動する融合画像生成工程と、演算処理ユニットが融合画像と低露光画像を比較して第1の輝度差分値を生成して第1の輝度差分値をオーバー露光弁別器に入力し、且つ融合画像とオーバー露光画像を比較して第2の輝度差分値を生成して第2の輝度差分値を低露光弁別器に入力するように駆動する輝度比較工程と、オーバー露光弁別器が第1の輝度差分値及びオーバー露光画像に基づいて第1の敵対的結果を生成器に出力するように駆動し、且つ低露光弁別器が第2の輝度差分値及び低露光画像に基づいて第2の敵対的結果を生成器に出力するように駆動する敵対的結果生成工程と、生成器が第1の敵対的結果及び第2の敵対的結果に基づいて車室内画像を調整して適正露光画像に近似する近似画像を生成するように駆動する輝度近似工程と、を含む。
前記実施形態の他の実施例としては、前記記憶ユニットは、許容値にアクセスし、画像調整工程は、演算処理ユニットが近似画像及び適正露光画像に対して、近似画像と適正露光画像との間の輝度差分値が許容値内にあるか否かを確認する評価演算プログラムを実行するように駆動する輝度確認工程を更に含み、輝度差分値が許容値内にある場合、引き続き車室内監視工程を実行し、輝度差分値が許容値を超えた場合、演算処理ユニットは、第1の敵対的結果及び第2の敵対的結果に基づいて生成器を更新する。
前記実施形態の他の実施例としては、前記車室内監視工程は、演算処理ユニットが顔認識モデルに基づいて近似画像から複数の顔キーポイント及び複数の頭部角度点をキャプチャし、前記顔キーポイント及び前記頭部角度点を演算して顔認識結果を生成するように駆動する顔認識工程と、演算処理ユニットが人体姿勢検出モデルに基づいて近似画像から人体骨格を推定し、人体骨格を演算して人体姿勢検出結果を生成するように駆動する人体姿勢推定工程と、を含む。
本発明の別の実施形態によれば、車室内を監視して状況理解結果を感知するための車室内監視・状況理解感知方法であって、第1の撮影ユニットが車室内から車室内画像をキャプチャして車室内画像を記憶ユニットに記憶するように駆動する車室内画像キャプチャ工程と、演算処理ユニットが敵対的生成ネットワークモデルに基づいて記憶ユニットにおける車室内画像を調整して近似画像を生成するように駆動する画像調整工程と、演算処理ユニットが顔認識モデル及び人体姿勢検出モデルに基づいて近似画像を処理して顔認識結果及び人体姿勢検出結果を生成するように駆動する車室内監視工程と、第2の撮影ユニットが車室外画像をキャプチャして車室外画像を記憶ユニットに記憶するように駆動し、且つオーディオユニットが車室内から音声情報をキャプチャして音声情報を記憶ユニットに記憶するように駆動する車室外画像及び音声キャプチャ工程と、演算処理ユニットが近似画像、車室外画像及び音声情報をトレーニングして状況理解モデルを確立するように駆動する状況理解モデル確立工程と、演算処理ユニットが状況理解モデルに基づいて近似画像、車室外画像及び音声情報のうちの少なくとも1つを処理して状況理解結果を感知するように駆動する状況理解感知工程と、を含む車室内監視・状況理解感知方法を提供する。
それにより、本発明の車室内監視・状況理解感知方法は、近似画像、車室外画像及び音声情報の特徴学習を行って状況理解モデルをトレーニングし、車室内外画像及び運転者と乗員の音声情報を導入し、更に車室外のシーンでの音声質問応答及び車室内のシーンでの音声質問応答の監視を実現する。
前記実施形態の他の実施例としては、前記状況理解モデル確立工程は、演算処理ユニットが記憶ユニットを介して近似画像、車室外画像及び音声情報を持続的に更新するように駆動する更新工程と、演算処理ユニットが畳み込みニューラルネットワーク及び回帰型ニューラルネットワークに基づいて更新後の近似画像、車室外画像及び音声情報を整合して状況理解モデルを生成するように駆動する整合工程と、を含む。
前記実施形態の他の実施例としては、前記車室内監視工程は、演算処理ユニットが近似画像における運転者のジェスチャを分析してジェスチャ分析結果を生成するように駆動するジェスチャ分析工程を含み、整合工程では、畳み込みニューラルネットワーク及び回帰型ニューラルネットワークに基づいて更新後のジェスチャ分析結果及び音声情報のうちの少なくとも1つ、近似画像及び車室外画像を整合して、状況理解モデルを生成する。
前記実施形態の他の実施例としては、前記状況理解結果は、車室内判定結果及び車室外判定結果のうちの少なくとも1つを含み、且つ、状況理解感知工程は、演算処理ユニットが状況理解モデルに基づいてジェスチャ分析結果又は音声情報を処理し、続いて近似画像を判定してマンマシンインタラクションの車室内判定結果を生成するように駆動する車室内マンマシンインタラクション判定工程と、演算処理ユニットが状況理解モデルに基づいてジェスチャ分析結果又は音声情報を処理し、続いて車室外画像を判定してマンマシンインタラクションの車室外判定結果を生成するように駆動する車室外マンマシンインタラクション判定工程と、を含む。
本発明の別の実施形態によれば、車室内を監視して状況理解結果を感知するための車室内監視・状況理解感知システムであって、敵対的生成ネットワークモデル、顔認識モデル、人体姿勢検出モデル及び状況理解モデルにアクセスするための記憶ユニットと、記憶ユニットに接続され、且つ車室内から車室内画像をキャプチャして車室内画像を記憶ユニットに記憶する第1の撮影ユニットと、記憶ユニットに接続され、且つ車室外画像をキャプチャして車室外画像を記憶ユニットに記憶する第2の撮影ユニットと、記憶ユニットに接続され、且つ車室内から音声情報をキャプチャして音声情報を記憶ユニットに記憶するオーディオユニットと、記憶ユニットに接続される演算処理ユニットと、を備え、前記演算処理ユニットは、敵対的生成ネットワークモデルに基づいて車室内画像を調整して近似画像を生成する画像調整工程と、顔認識モデル及び人体姿勢検出モデルに基づいて近似画像を処理して顔認識結果及び人体姿勢検出結果を生成する車室内監視工程と、状況理解モデルに基づいて近似画像、車室外画像及び音声情報のうちの少なくとも1つを処理して状況理解結果を感知する状況理解感知工程と、を実施するように配置される車室内監視・状況理解感知システムを提供する。
それにより、本発明の車室内監視・状況理解感知システムは、第1の撮影ユニット及び第2の撮影ユニットによってそれぞれ車室内画像及び車室外画像をキャプチャし、音声情報と共に状況理解モデルに導入し演算処理を行って状況理解結果を感知し、更に広視野での監視能力を実現し、且つ前記情報を持続的且つ能動的に更新してより正確でカスタマイズされたマンマシンインタラクション機能を達成する。
前記実施形態の他の実施例としては、前記車室内画像は、オーバー露光画像、適正露光画像及び低露光画像を含み、且つ、演算処理ユニットは、演算処理ユニットが記憶ユニットからの車室内画像のオーバー露光画像、適正露光画像及び低露光画像に基づいて敵対的生成ネットワークモデルを確立するように駆動する敵対的生成ネットワークモデル確立工程を更に実施する。
前記実施形態の他の実施例としては、前記敵対的生成ネットワークモデル確立工程は、演算処理ユニットがオーバー露光画像に基づいてオーバー露光弁別器を確立するように駆動するオーバー露光弁別器確立工程と、演算処理ユニットが低露光画像に基づいて低露光弁別器を確立するように駆動する低露光弁別器確立工程と、を含み、敵対的生成ネットワークモデルは、生成器、オーバー露光弁別器及び低露光弁別器で構成される。
前記実施形態の他の実施例としては、前記画像調整工程は、演算処理ユニットがオーバー露光画像及び低露光画像を生成器に入力して融合画像を生成するように駆動する融合画像生成工程と、演算処理ユニットが融合画像と低露光画像を比較して第1の輝度差分値を生成して第1の輝度差分値をオーバー露光弁別器に入力し、且つ融合画像とオーバー露光画像を比較して第2の輝度差分値を生成して第2の輝度差分値を低露光弁別器に入力するように駆動する輝度比較工程と、オーバー露光弁別器が第1の輝度差分値及びオーバー露光画像に基づいて第1の敵対的結果を生成器に出力するように駆動し、且つ低露光弁別器が第2の輝度差分値及び低露光画像に基づいて第2の敵対的結果を生成器に出力するように駆動する敵対的結果生成工程と、生成器が第1の敵対的結果及び第2の敵対的結果に基づいて車室内画像を調整して適正露光画像に近似する近似画像を生成するように駆動する輝度近似工程と、を含む。
前記実施形態の他の実施例としては、前記記憶ユニットは、許容値にアクセスし、画像調整工程は、演算処理ユニットが近似画像及び適正露光画像に対して、近似画像と適正露光画像との間の輝度差分値が許容値内にあるか否かを確認する評価演算プログラムを実行するように駆動する輝度確認工程を更に含み、輝度差分値が許容値内にある場合、引き続き車室内監視工程を実行し、輝度差分値が許容値を超えた場合、演算処理ユニットは、第1の敵対的結果及び第2の敵対的結果に基づいて生成器を更新する。
前記実施形態の他の実施例としては、前記車室内監視工程は、演算処理ユニットが顔認識モデルに基づいて近似画像から複数の顔キーポイント及び複数の頭部角度点をキャプチャし、前記顔キーポイント及び前記頭部角度点を演算して顔認識結果を生成するように駆動する顔認識工程と、演算処理ユニットが人体姿勢検出モデルに基づいて近似画像から人体骨格を推定し、人体骨格を演算して人体姿勢検出結果を生成するように駆動する人体姿勢推定工程と、を含む。
前記実施形態の他の実施例としては、前記演算処理ユニットは、演算処理ユニットが近似画像、車室外画像及び音声情報をトレーニングして状況理解モデルを確立するように駆動する状況理解モデル確立工程を更に実施する。
前記実施形態の他の実施例としては、前記記憶ユニットは、畳み込みニューラルネットワーク及び回帰型ニューラルネットワークにアクセスし、状況理解モデル確立工程は、演算処理ユニットが記憶ユニットを介して近似画像、車室外画像及び音声情報を持続的に更新するように駆動する更新工程と、演算処理ユニットが畳み込みニューラルネットワーク及び回帰型ニューラルネットワークに基づいて更新後の近似画像、車室外画像及び音声情報を整合して状況理解モデルを生成するように駆動する整合工程と、を含む。
前記実施形態の他の実施例としては、前記車室内監視工程は、演算処理ユニットが近似画像における運転者のジェスチャを分析してジェスチャ分析結果を生成するように駆動するジェスチャ分析工程を含み、整合工程では、畳み込みニューラルネットワーク及び回帰型ニューラルネットワークに基づいて更新後のジェスチャ分析結果及び音声情報のうちの少なくとも1つ、近似画像及び車室外画像を整合して、状況理解モデルを生成する。
前記実施形態の他の実施例としては、前記状況理解結果は、車室内判定結果及び車室外判定結果のうちの少なくとも1つを含み、且つ、状況理解感知工程は、演算処理ユニットが状況理解モデルに基づいてジェスチャ分析結果又は音声情報を処理し、続いて近似画像を判定してマンマシンインタラクションの車室内判定結果を生成するように駆動する車室内マンマシンインタラクション判定工程と、演算処理ユニットが状況理解モデルに基づいてジェスチャ分析結果又は音声情報を処理し、続いて車室外画像を判定してマンマシンインタラクションの車室外判定結果を生成するように駆動する車室外マンマシンインタラクション判定工程と、を含む。
本発明の上記の及び他の目的、特徴、メリットと実施例をより明らかで分かりやすくするために添付される図面の説明は、以下の通りである。
本発明の第1の実施例による車室内監視・状況理解感知方法を示すフローチャートである。 図1の車室内監視・状況理解感知方法の画像調整工程を示すフローチャートである。 図1の車室内監視・状況理解感知方法の敵対的生成ネットワークモデルを示す模式図である。 本発明の第2の実施例による車室内監視・状況理解感知方法を示すフローチャートである。 図4の車室内監視・状況理解感知方法の状況理解モデル確立工程を示すフローチャートである。 図4の車室内監視・状況理解感知方法の状況理解感知工程を示すフローチャートである。 図6の車室外マンマシンインタラクション判定工程を示す模式図である。 本発明の第3の実施例による車室内監視・状況理解感知システムを示すブロック模式図である。
以下、図面を参照しながら本発明の複数の実施例を説明する。明確に説明するために、多くの実際的な細部を下記叙述で合わせて説明する。しかしながら、これらの実際的な細部が本発明を制限するためのものではないと理解すべきである。つまり、本発明の一部の実施例において、これらの実際的な細部は必要なものではない。また、図面を簡略化するために、一部の従来慣用の構造及び素子は、図面において簡単で模式的に示され、且つ、重複する素子は、同じ符号で表される場合がある。
また、本文において、ある素子(又はユニット又はモジュールなど)が別の素子に「接続/連結」されることは、前記素子が別の素子に直接接続/連結されることを指してもよく、ある素子が別の素子に間接接続/連結されることを指してもよく、即ち、他の素子が前記素子と別の素子の間に介在してもよい。ある素子が別の素子に「直接接続/連結」されることを明示した場合、前記素子と別の素子の間に他の素子が介在していないことを示す。第1、第2、第3などの用語は、単に異なる素子を叙述するためのものであり、素子そのものを制限することはないため、第1の素子を第2の素子と言い換えてもよい。且つ、本文における素子/ユニット/回路の組み合わせは、この分野において一般的に知られた、通常又は従来の組み合わせではなく、素子/ユニット/回路そのものが従来のものであるかによって、その組み合わせ関係が当業者によって容易に完成されるかを判断してはいけない。
図1を参照されたく、図1は、本発明の第1の実施例による車室内監視・状況理解感知方法100を示すフローチャートである。図1に示すように、車室内監視・状況理解感知方法100は、車室内を監視して状況理解結果160を感知するために用いられ、車室内画像キャプチャ工程S01と、敵対的生成ネットワークモデル確立工程S02と、画像調整工程S03と、車室内監視工程S04と、車室外画像及び音声キャプチャ工程S05と、状況理解感知工程S06と、を含む。
車室内画像キャプチャ工程S01では、第1の撮影ユニットが車室内から車室内画像110をキャプチャして車室内画像110を記憶ユニットに記憶するように駆動する。具体的には、第1の撮影ユニットは、乗員監視システム(Occupancy Monitoring System;OMS)に適用可能なカメラであってよいが、本発明はこれに限定されない。従来の運転者監視システム(Driver Monitoring System,DMS)に適用されるカメラは、通常、車両内のステアリングホイールに設けられ、運転者の現在の画像を撮影又はキャプチャするために用いられ、相違点は、本発明において第1の撮影ユニットを車両内のバックミラーに配置し、カメラの配置位置を変えることにより、車室内の全方位監視を達成することである。
また、車室内画像110は、オーバー露光画像、適正露光画像及び低露光画像を含む。詳しくは、車室内画像110の露光値(Exposure Value)が-1.5以上-1未満である場合、車室内画像110は、オーバー露光画像であり、車室内画像110の露光値が-1以上1未満である場合、車室内画像110は、適正露光画像であり、車室内画像110の露光値が1以上1.5未満である場合、車室内画像110は、低露光画像である。
敵対的生成ネットワークモデル確立工程S02では、演算処理ユニットが記憶ユニットからの車室内画像110のオーバー露光画像、適正露光画像及び低露光画像に基づいて敵対的生成ネットワーク(Generative Adversarial Network;GAN)モデル120を確立するように駆動する。
画像調整工程S03では、演算処理ユニットが敵対的生成ネットワークモデル120に基づいて車室内画像110を調整して適正露光画像に近似する近似画像130を生成するように駆動する。簡単に言えば、車室内画像110は、近似画像130になるように調整され、且つ近似画像130の露光値は-1以上1未満である。
車室内監視工程S04では、演算処理ユニットが顔認識モデル及び人体姿勢検出モデルに基づいて近似画像130を処理して顔認識結果141及び人体姿勢検出結果142を生成するように駆動する。
車室外画像及び音声キャプチャ工程S05では、第2の撮影ユニットが車室外画像151をキャプチャして車室外画像151を記憶ユニットに記憶するように駆動し、且つオーディオユニットが車室内から音声情報152をキャプチャして音声情報152を記憶ユニットに記憶するように駆動する。具体的には、第2の撮影ユニットは、自動運転車の先進運転支援システム(Advanced Driver Assistance System,ADAS)に適用されるカメラであってよいが、本発明はこれに限定されない。それにより、本発明の車室内監視・状況理解感知方法100は、第2の撮影ユニットによって車室外画像151をキャプチャして車室外の状況理解を行う。
状況理解感知工程S06では、演算処理ユニットが状況理解モデルに基づいて近似画像130、車室外画像151及び音声情報152のうちの少なくとも1つを処理して状況理解結果160を感知するように駆動する。状況理解モデルは、演算処理ユニットによって事前に近似画像130、車室外画像151及び音声情報152に対して特徴学習を行うことで確立されることを説明しておく。従って、近似画像130、車室外画像151及び運転者又は乗員の音声情報152を状況理解モデルに導入することができ、更に状況理解結果160によって車両と運転者又は乗員との間の能動的なマンマシンインタラクションを実現することができる。
それにより、本発明の車室内監視・状況理解感知方法100は、オーバー露光画像、適正露光画像及び低露光画像に基づいて敵対的生成ネットワークモデル120を確立することにより、車室内画像110を適正露光値に調整し、更にその後で感知された状況理解結果160が高い精度を有することを確保する。以下の段落において、添付される図面及び実施例に合わせて本発明の敵対的生成ネットワークモデル確立工程S02、画像調整工程S03及び車室内監視工程S04の動作メカニズムを詳細に説明する。
図1、図2及び図3を合わせて参照されたく、図2は、図1の車室内監視・状況理解感知方法100の画像調整工程S03を示すフローチャートであり、図3は、図1の車室内監視・状況理解感知方法100の敵対的生成ネットワークモデル120を示す模式図である。図1及び図3に示すように、敵対的生成ネットワークモデル確立工程S02は、オーバー露光弁別器確立工程S021と、低露光弁別器確立工程S022と、を含んでよい。オーバー露光弁別器確立工程S021では、演算処理ユニットが車室内画像110のオーバー露光画像111に基づいてオーバー露光弁別器121を確立するように駆動する。低露光弁別器確立工程S022は、演算処理ユニットが車室内画像110の低露光画像112に基づいて低露光弁別器122を確立するように駆動する。なお、敵対的生成ネットワークモデル120は、生成器123、オーバー露光弁別器121及び低露光弁別器122で構成され、生成器123は、画像変換を実行し、オーバー露光弁別器121及び低露光弁別器122と共にGAN学習を実行してパラメータを更新するために用いられる。
図1~図3に示すように、画像調整工程S03は、融合画像生成工程S031と、輝度比較工程S032と、敵対的結果生成工程S033と、輝度近似工程S034と、を含んでよい。
融合画像生成工程S031では、演算処理ユニットがオーバー露光画像111及び低露光画像112を生成器123に入力し、続いて生成器123がその内部のモデルによってオーバー露光画像111及び低露光画像112を処理して融合画像124を生成するように駆動する。
輝度比較工程S032では、演算処理ユニットが融合画像124と低露光画像112を比較して第1の輝度差分値D1を生成して第1の輝度差分値D1をオーバー露光弁別器121に入力し、且つ融合画像124とオーバー露光画像111を比較して第2の輝度差分値D2を生成して第2の輝度差分値D2を低露光弁別器122に入力するように駆動する。
敵対的結果生成工程S033では、オーバー露光弁別器121が第1の輝度差分値D1及びオーバー露光画像111に基づいて第1の敵対的結果R1を生成器123に出力するように駆動し、且つ低露光弁別器122が第2の輝度差分値D2及び低露光画像112に基づいて第2の敵対的結果R2を生成器123に出力するように駆動する。詳しくは、オーバー露光弁別器121の部分において、本発明は、低露光画像112と融合画像124との輝度差異(即ち第1の輝度差分値D1)をオーバー露光画像111と共にオーバー露光弁別器121に入力し、オーバー露光画像111を基準としてモデリングする。このモデルは、モデリングされた敵対的生成結果(即ち第1の敵対的結果R1)を生成器123に返す。同様に、低露光弁別器122の部分において、本発明は、オーバー露光画像111と融合画像124との輝度差異(即ち第2の輝度差分値D2)を低露光画像112と共に低露光弁別器122に入力し、低露光画像112を基準としてモデリングする。このモデルは、モデリングされた生成對抗性結果(即ち第2の敵対的結果R2)を生成器123に返す。
輝度近似工程S034では、生成器123が第1の敵対的結果R1及び第2の敵対的結果R2に基づいて車室内画像110を調整して適正露光画像113に近似する近似画像130を生成するように駆動する。具体的には、生成器123は、第1の敵対的結果R1に基づいて車室内画像110における低露光画像112を調整してオーバー露光画像111に近似する画像を生成するか、又は、第2の敵対的結果R2に基づいて車室内画像110におけるオーバー露光画像111を調整して低露光画像112に近似する画像を生成する。従って、本発明は、融合画像124とオーバー露光画像111、及び融合画像124と低露光画像112に差分近似を行い、第1の敵対的結果R1及び第2の敵対的結果R2を生成し、続いて第1の敵対的結果R1及び第2の敵対的結果R2を利用して車室内画像110を近似画像130に調整する。
なお、本発明の記憶ユニットは、既に輝度に対応する許容値にアクセスし、且つ、画像調整工程S03は、輝度確認工程S035を更に含んでよい。輝度確認工程S035では、演算処理ユニットが近似画像130及び適正露光画像113に評価演算プログラムを実行するように駆動する。評価演算プログラムは、近似画像130と適正露光画像113との間の輝度差分値が記憶ユニットにアクセスされた許容値内にあるか否かを確認する。従って、前記輝度差分値が許容値内にある場合、演算処理ユニットは、引き続き車室内監視工程S04を実行する。一方、前記輝度差分値が許容値を超えた場合、演算処理ユニットは、第1の敵対的結果R1及び第2の敵対的結果R2に基づいて生成器123を更新する。それにより、更新後の生成器123により生成された融合画像124に差分近似を再度行うと、近似画像130が適正露光画像113に益々似るようになる。
図1に示すように、車室内監視工程S04は、顔認識工程S041と、人体姿勢推定工程S042と、を含んでよい。顔認識工程S041では、演算処理ユニットが顔認識モデルに基づいて近似画像130から複数の顔キーポイント及び複数の頭部角度点をキャプチャし、前記顔キーポイント及び前記頭部角度点を演算して顔認識結果141を生成するように駆動する。人体姿勢推定工程S042では、演算処理ユニットが人体姿勢検出モデルに基づいて近似画像130から人体骨格を推定し、人体骨格を演算して人体姿勢検出結果142を生成するように駆動する。
詳しくは、顔認識モデルは、フェイスネット(FaceNet)アルゴリズムと頭部姿勢推定(Head Pose Estimation)アルゴリズムを整合してトレーニングして得られてよいが、本発明はこれに限定されない。FaceNetアルゴリズムは、顔認識ネットワークであり、近似画像130における顔キーポイントをキャプチャし、顔領域に顔認識を行う。一方、Head Pose Estimationアルゴリズムは、近似画像130における頭部角度点をキャプチャし、人体頭部に頭部姿態推定を行う。近似画像130における顔キーポイント及び頭部角度点のキャプチャが徹底的ではない場合、演算処理ユニットは、顔認識結果141を生成するための顔キーポイント及び頭部角度点の数が十分になるまで、車室内監視工程S04を再実行する。それにより、本発明の車室内監視・状況理解感知方法100は、顔認識モデルを利用して近似画像130における運転者又は乗員に顔認識及び頭部姿態推定を行って顔認識結果141を生成し、更に運転者の疲労検出、行動分析又は感情の制御及び管理を実現する。
また、人体姿勢検出モデルは、物体検出アルゴリズム(You OnlyLook Once;YOLO)と人体姿勢推定アルゴリズム(OpenPose)を整合して得られてよいが、本発明はこれに限定されない。YOLOは、1段階物体検出(One-stage Object Detection)に属し、つまり、画像に畳み込みニューラルネットワーク(Convolutional Neural Networks;CNN)を1回実行するだけで画像における物体の位置及びタイプを判定することができる。OpenPoseは、複数人2D姿勢を推定するためのアルゴリズムに属し、CNNのアーキテクチャによって各関節点位置の信頼度マップ(Confidence Map)及びOpenPoseにより新たに定義された部位関係領域(Part Affinity Fields;PAF)を探す。OpenPoseは、上記の2つの特徴を整合した後、各体節を更に予測することができるため、人が多く背景が乱雑な環境でも一定の人体関節及び体節の予測精度及び処理速度を維持することができる。それにより、本発明の車室内監視・状況理解感知方法100は、人体姿勢検出モデルによって近似画像130における物体、運転者又は乗員に対して物体検出又は人体姿勢推定を行って人体姿勢検出結果142を生成し、更に車室内監視を実現する。
図4を参照されたく、図4は、本発明の第2の実施例による車室内監視・状況理解感知方法200を示すフローチャートである。図4に示すように、車室内監視・状況理解感知方法200は、車室内を監視して状況理解結果160を感知するために用いられ、車室内画像キャプチャ工程S11と、画像調整工程S12と、車室内監視工程S13と、車室外画像及び音声キャプチャ工程S14と、状況理解モデル確立工程S15と、状況理解感知工程S16と、を含み、車室内画像キャプチャ工程S11、画像調整工程S12、車室外画像及び音声キャプチャ工程S14及び状況理解感知工程S16は、いずれも第1の実施例の車室内監視・状況理解感知方法100の対応する工程と同じであるため、ここで繰り返して説明しない。
第1の実施例と異なり、第2の実施例の車室内監視工程S13は、それぞれ顔認識結果141及び人体姿勢検出結果142を生成する顔認識工程S131及び人体姿勢推定工程S132を含むほか、ジェスチャ分析工程S133を更に含んでよい。ジェスチャ分析工程S133では、演算処理ユニットが近似画像130における運転者のジェスチャを分析してジェスチャ分析結果143を生成するように駆動する。詳しくは、車室内の運転者又は乗員が前記第1の撮影ユニットに特定のジェスチャを示す時、第1の撮影ユニットは、このジェスチャを含む車室内画像110をキャプチャし、引き続き演算処理ユニットが画像調整工程S12を実行して車室内画像110を近似画像130に調整する。なお、本発明の記憶ユニットは、様々なジェスチャに代表される意味を含むジェスチャライブラリ(図示せず)に既にアクセスしている。従って、演算処理ユニットは、ジェスチャライブラリと近似画像130におけるジェスチャを比較することでジェスチャ分析結果143を生成する。
図4及び図5を合わせて参照されたく、図5は、図4の車室内監視・状況理解感知方法200の状況理解モデル確立工程S15を示すフローチャートである。図4及び図5に示すように、状況理解モデル確立工程S15では、演算処理ユニットが近似画像130、車室外画像151及び音声情報152をトレーニングして状況理解モデル153を確立するように駆動する。また、状況理解モデル確立工程S15は、更新工程S151と、整合工程S152と、を更に含んでよい。更新工程S151では、演算処理ユニットが記憶ユニットを介して近似画像130、車室外画像151及び音声情報152を持続的に更新するように駆動する。整合工程S152では、演算処理ユニットが畳み込みニューラルネットワーク(CNN)及び回帰型ニューラルネットワーク(Recurrent Neural Network;RNN)に基づいて更新後の近似画像130、車室外画像151及び音声情報152を整合して状況理解モデル153を生成するように駆動する。詳しくは、整合工程S152では、畳み込みニューラルネットワーク及び回帰型ニューラルネットワークに基づいて更新後の近似画像130に対応するジェスチャ分析結果143及び音声情報152のうちの少なくとも1つ、更新後の近似画像130及び更新後の車室外画像151を整合して、状況理解モデル153を生成する。第2の実施例において、回帰型ニューラルネットワークは、長・短期記憶モデル(Long Short-Term Memory;LSTM)であってよい。演算処理ユニットは、多重検知によって近似画像130、車室外画像151及び音声情報152を絶えず更新してCNNとLSTMを整合し、ソフトウェアライブラリ(TensorFlow)及びネットワークライブラリ(Keras)を利用して画像情報、自然言語、ジェスチャコマンドの特徴マッチング学習を行い、最終的に車両と運転者又は乗員との間の能動的なマンマシンインタラクションを実現可能な状況理解モデル153を確立し、TensorFlowは、オープンソースソフトウェアライブラリであり、様々な感知及び言語理解タスクの機械学習に用いられる。また、Kerasは、Pythonで記述されたオープンソースニューラルネットワークライブラリであり、TensorFlowで実行可能であり、TensorFlow及びKerasは、従来技術であり、本発明の重点ではないため、その細部の説明を省略する。他の実施例において、状況理解モデルは、視覚的質問応答モデル(Stacked Attention Networks;SAN)であってもよく、本発明はこれに限定されない。
図4、図5及び図6を合わせて参照されたく、図6は、図4の車室内監視・状況理解感知方法200の状況理解感知工程S16を示すフローチャートである。図4、図5及び図6に示すように、状況理解感知工程S16は、車室内マンマシンインタラクション判定工程S161と、車室外マンマシンインタラクション判定工程S162と、を含んでよく、状況理解結果160は、車室内判定結果161及び車室外判定結果162を含む。具体的には、車室内マンマシンインタラクション判定工程S161では、演算処理ユニットが状況理解モデル153に基づいてジェスチャ分析結果143又は音声情報152を処理し、続いて近似画像130を判定してマンマシンインタラクションの車室内判定結果161を生成するように駆動する。車室外マンマシンインタラクション判定工程S162では、演算処理ユニットが状況理解モデル153に基づいてジェスチャ分析結果143又は音声情報152を処理し、続いて車室外画像151を判定してマンマシンインタラクションの車室外判定結果162を生成するように駆動する。
図7を参照されたく、図7は、図6の車室外マンマシンインタラクション判定工程S162を示す模式図である。図7に示すように、運転者又は乗員は、「前の自転車のバスケットに何があるか」と質問し、続いて車室内のオーディオユニットが前記質問の音声をキャプチャして音声情報152を生成し、又は、運転者又は乗員は、第1の撮影ユニットにジェスチャを示し、続いて演算処理ユニットがジェスチャ分析工程S133を実行してジェスチャ分析結果143を生成し、且つ第2の撮影ユニットが車室外の車室外画像151を同時にキャプチャする。引き続き、演算処理ユニットがジェスチャ分析結果143又は音声情報152及び車室外画像151を状況理解モデル153に導入する。状況理解モデル153が内部の畳み込みニューラルネットワーク1531を介して車室外画像151の特徴ベクトルV1を抽出し、且つ長・短期記憶モデル1532の第1の注意力メカニズム層L1及び第2の注意力メカニズム層L2を介してジェスチャ分析結果143又は音声情報152の特徴ベクトルV2を抽出する。演算処理ユニットは、特徴ベクトルV1、V2にインタラクション特徴学習を行い、且つ出力層1533によって長・短期記憶モデル1532の出力を計算し、車室外画像151を判定した後に「答えは犬である」(即ち車室外判定結果162)を出力する。また、出力層1533に使用される活性化関数は、Softmax関数、Sigmoid関数又はReLU関数であってよいが、本発明はこれらに限定されない。
それにより、本発明の車室内監視・状況理解感知方法200は、近似画像130、車室外画像151及び音声情報152の特徴学習を行って状況理解モデル153をトレーニングし、車室内画像110、車室外画像151及び運転者と乗員の音声情報152を導入し、更に車室外のシーンでの音声質問応答及び車室内のシーンでの質問応答の監視の能動的なマンマシンインタラクションを実現する。
図1~図8を合わせて参照されたく、図8は、本発明の第3の実施例による車室内監視・状況理解感知システム300を示すブロック模式図である。図8に示すように、車室内監視・状況理解感知システム300は、車室内を監視して状況理解結果160を感知するために用いられる。車室内監視・状況理解感知システム300は、車両310と、検知モジュール320と、処理モジュール330と、を備える。検知モジュール320及び処理モジュール330は、車両310に設けられる。検知モジュール320は、第1の撮影ユニット321と、第2の撮影ユニット322と、オーディオユニット323と、を含む。処理モジュール330は、検知モジュール320に電気的に接続され、演算処理ユニット331と、記憶ユニット332と、を含む。
記憶ユニット332は、敵対的生成ネットワークモデル3321、顔認識モデル3322、人体姿勢検出モデル3323、状況理解モデル3324、畳み込みニューラルネットワーク3325、回帰型ニューラルネットワーク3326、評価演算プログラム3327及び許容値3328にアクセスするために用いられる。第1の撮影ユニット321は、記憶ユニット332に電気的に接続され、且つ車室内から車室内画像110をキャプチャして記憶ユニット332に記憶する。第2の撮影ユニット322は、記憶ユニット332に電気的に接続され、且つ車室外から車室外画像151をキャプチャして記憶ユニット332に記憶する。オーディオユニット323は、記憶ユニット332に電気的に接続され、且つ車室内から音声情報152をキャプチャして記憶ユニット332に記憶する。演算処理ユニット331は、記憶ユニット332に電気的に接続され、車室内監視・状況理解感知方法100、200を実施するように配置され、演算処理ユニット331は、デジタルシグナルプロセッサ(Digital Signal Processor;DSP)、マイクロプロセッサ(Micro Processing Unit;MPU)、中央処理装置(Central Processing Unit;CPU)又は他の電子プロセッサであってよいが、本発明はこれらに限定されない。それにより、本発明の車室内監視・状況理解感知システム300は、第1の撮影ユニット321及び第2の撮影ユニット322によってそれぞれ車室内画像110及び車室外画像151をキャプチャし、音声情報152と共に状況理解モデル3324に導入し演算処理を行って状況理解結果160を感知し、更に広視野での監視能力を実現し、且つ前記情報を持続的且つ能動的に更新してより正確でカスタマイズされたマンマシンインタラクション機能を達成する。
以上を纏めると、本発明は、以下のメリットを有する。1、車両の車室内外のシーンの解析及び安全性の向上を実現する。2、敵対的生成ネットワークモデルを利用して車室内画像を適正露光値に調整し、更にその後で感知された状況理解結果が高い精度を有することを確保する。3、車室外画像及び運転者と乗員の音声情報を状況理解モデルに導入し、更に車室内外のシーンでの音声質問応答及び車室内のシーンでの質問応答の監視の能動的なマンマシンインタラクションを実現する。
本発明は、実施例により前述の通りに開示されたが、実施例が本発明を限定するものではなく、当業者であれば、本発明の精神と範囲から逸脱しない限り、多様の変更や修飾を加えることができる。従って、本発明の保護範囲は、下記特許請求の範囲で指定した内容を基準とするものである。
100、200 車室内監視・状況理解感知方法
110 車室内画像
111 オーバー露光画像
112 低露光画像
113 適正露光画像
120、3321 敵対的生成ネットワークモデル
121 オーバー露光弁別器
122 低露光弁別器
123 生成器
124 融合画像
130 近似画像
141 顔認識結果
142 人体姿勢検出結果
143 ジェスチャ分析結果
151 車室外画像
152 音声情報
153、3324 状況理解モデル
1531、3325 畳み込みニューラルネットワーク
1532 長・短期記憶モデル
1533 出力層
160 状況理解結果
161 車室内判定結果
162 車室外判定結果
300 車室内監視・状況理解感知システム
310 車両
320 検知モジュール
321 第1の撮影ユニット
322 第2の撮影ユニット
323 オーディオユニット
330 処理モジュール
331 演算処理ユニット
332 記憶ユニット
3322 顔認識モデル
3323 人体姿勢検出モデル
3326 回帰型ニューラルネットワーク
3327 評価演算プログラム
3328 許容値
S01、S11 車室内画像キャプチャ工程
S02 敵対的生成ネットワークモデル確立工程
S021 オーバー露光弁別器確立工程
S022 低露光弁別器確立工程
S03、S12 画像調整工程
S031 融合画像生成工程
S032 輝度比較工程
S033 敵対的結果生成工程
S034 輝度近似工程
S035 輝度確認工程
S04、S13 車室内監視工程
S041、S131 顔認識工程
S042、S132 人体姿勢推定工程
S133 ジェスチャ分析工程
S05、S14 車室外画像及び音声キャプチャ工程
S15 状況理解モデル確立工程
S151 更新工程
S152 整合工程
S06、S16 状況理解感知工程
S161 車室内マンマシンインタラクション判定工程
S162 車室外マンマシンインタラクション判定工程
D1 第1の輝度差分値
D2 第2の輝度差分値
R1 第1の敵対的結果
R2 第2の敵対的結果
V1、V2 特徴ベクトル
L1 第1の注意力メカニズム層
L2 第2の注意力メカニズム層

Claims (18)

  1. 車室内を監視して状況理解結果を感知するための車室内監視・状況理解感知方法であって、
    第1の撮影ユニットが前記車室内からオーバー露光画像、適正露光画像及び低露光画像を含む車室内画像をキャプチャして前記車室内画像を記憶ユニットに記憶するように駆動する車室内画像キャプチャ工程と、
    演算処理ユニットが前記記憶ユニットからの前記車室内画像の前記オーバー露光画像、前記適正露光画像及び前記低露光画像に基づいて敵対的生成ネットワークモデルを確立するように駆動する敵対的生成ネットワークモデル確立工程と、
    前記演算処理ユニットが前記敵対的生成ネットワークモデルに基づいて前記車室内画像を調整して前記適正露光画像に近似する近似画像を生成するように駆動する画像調整工程と、
    前記演算処理ユニットが顔認識モデル及び人体姿勢検出モデルに基づいて前記近似画像を処理して顔認識結果及び人体姿勢検出結果を生成するように駆動する車室内監視工程と、
    第2の撮影ユニットが車室外画像をキャプチャして前記車室外画像を前記記憶ユニットに記憶するように駆動し、且つオーディオユニットが前記車室内から音声情報をキャプチャして前記音声情報を前記記憶ユニットに記憶するように駆動する車室外画像及び音声キャプチャ工程と、
    前記演算処理ユニットが状況理解モデルに基づいて前記近似画像、前記車室外画像及び前記音声情報のうちの少なくとも1つを処理して前記状況理解結果を感知するように駆動する状況理解感知工程と、を含む車室内監視・状況理解感知方法。
  2. 前記敵対的生成ネットワークモデル確立工程は、
    前記演算処理ユニットが前記オーバー露光画像に基づいてオーバー露光弁別器を確立するように駆動するオーバー露光弁別器確立工程と、
    前記演算処理ユニットが前記低露光画像に基づいて低露光弁別器を確立するように駆動する低露光弁別器確立工程と、を含み、
    前記敵対的生成ネットワークモデルは、生成器、前記オーバー露光弁別器及び前記低露光弁別器で構成される請求項1に記載の車室内監視・状況理解感知方法。
  3. 前記画像調整工程は、
    前記演算処理ユニットが前記オーバー露光画像及び前記低露光画像を前記生成器に入力して融合画像を生成するように駆動する融合画像生成工程と、
    前記演算処理ユニットが前記融合画像と前記低露光画像を比較して第1の輝度差分値を生成して前記第1の輝度差分値を前記オーバー露光弁別器に入力し、且つ前記融合画像と前記オーバー露光画像を比較して第2の輝度差分値を生成して前記第2の輝度差分値を前記低露光弁別器に入力するように駆動する輝度比較工程と、
    前記オーバー露光弁別器が前記第1の輝度差分値及び前記オーバー露光画像に基づいて第1の敵対的結果を前記生成器に出力するように駆動し、且つ前記低露光弁別器が前記第2の輝度差分値及び前記低露光画像に基づいて第2の敵対的結果を前記生成器に出力するように駆動する敵対的結果生成工程と、
    前記生成器が前記第1の敵対的結果及び前記第2の敵対的結果に基づいて前記車室内画像を調整して前記適正露光画像に近似する前記近似画像を生成するように駆動する輝度近似工程と、を含む請求項2に記載の車室内監視・状況理解感知方法。
  4. 前記記憶ユニットは、許容値にアクセスし、前記画像調整工程は、
    前記演算処理ユニットが前記近似画像及び前記適正露光画像に対して、前記近似画像と前記適正露光画像との間の輝度差分値が前記許容値内にあるか否かを確認する評価演算プログラムを実行するように駆動する輝度確認工程を更に含み、
    前記輝度差分値が前記許容値内にある場合、引き続き前記車室内監視工程を実行し、
    前記輝度差分値が前記許容値を超えた場合、前記演算処理ユニットは、前記第1の敵対的結果及び前記第2の敵対的結果に基づいて前記生成器を更新する請求項3に記載の車室内監視・状況理解感知方法。
  5. 前記車室内監視工程は、
    前記演算処理ユニットが前記顔認識モデルに基づいて前記近似画像から複数の顔キーポイント及び複数の頭部角度点をキャプチャし、前記顔キーポイント及び前記頭部角度点を演算して前記顔認識結果を生成するように駆動する顔認識工程と、
    前記演算処理ユニットが前記人体姿勢検出モデルに基づいて前記近似画像から人体骨格を推定し、前記人体骨格を演算して前記人体姿勢検出結果を生成するように駆動する人体姿勢推定工程と、を含む請求項1に記載の車室内監視・状況理解感知方法。
  6. 記演算処理ユニットが前記近似画像、前記車室外画像及び前記音声情報をトレーニングして前記状況理解モデルを確立するように駆動する状況理解モデル確立工程をさらに含む請求項1に記載の車室内監視・状況理解感知方法。
  7. 前記状況理解モデル確立工程は、
    前記演算処理ユニットが前記記憶ユニットを介して前記近似画像、前記車室外画像及び前記音声情報を持続的に更新するように駆動する更新工程と、
    前記演算処理ユニットが畳み込みニューラルネットワーク及び回帰型ニューラルネットワークに基づいて更新後の前記近似画像、前記車室外画像及び前記音声情報を整合して前記状況理解モデルを生成するように駆動する整合工程と、を含む請求項6に記載の車室内監視・状況理解感知方法。
  8. 前記車室内監視工程は、
    前記演算処理ユニットが前記近似画像における運転者のジェスチャを分析してジェスチャ分析結果を生成するように駆動するジェスチャ分析工程を含み、
    前記整合工程では、前記畳み込みニューラルネットワーク及び前記回帰型ニューラルネットワークに基づいて更新後の前記ジェスチャ分析結果及び前記音声情報のうちの少なくとも1つ、前記近似画像及び前記車室外画像を整合して、前記状況理解モデルを生成する請求項7に記載の車室内監視・状況理解感知方法。
  9. 前記状況理解結果は、車室内判定結果及び車室外判定結果のうちの少なくとも1つを含み、且つ、前記状況理解感知工程は、
    前記演算処理ユニットが前記状況理解モデルに基づいて前記ジェスチャ分析結果又は前記音声情報を処理し、続いて前記近似画像を判定してマンマシンインタラクションの前記車室内判定結果を生成するように駆動する車室内マンマシンインタラクション判定工程と、
    前記演算処理ユニットが前記状況理解モデルに基づいて前記ジェスチャ分析結果又は前記音声情報を処理し、続いて前記車室外画像を判定してマンマシンインタラクションの前記車室外判定結果を生成するように駆動する車室外マンマシンインタラクション判定工程と、を含む請求項8に記載の車室内監視・状況理解感知方法。
  10. 車室内を監視して状況理解結果を感知するための車室内監視・状況理解感知システムであって、
    敵対的生成ネットワークモデル、顔認識モデル、人体姿勢検出モデル及び状況理解モデルにアクセスするための記憶ユニットと、
    前記記憶ユニットに接続され、且つ前記車室内から車室内画像をキャプチャして前記車室内画像を前記記憶ユニットに記憶し、前記車室内画像は、オーバー露光画像、適正露光画像及び低露光画像を含む、第1の撮影ユニットと、
    前記記憶ユニットに接続され、且つ車室外画像をキャプチャして前記車室外画像を前記記憶ユニットに記憶する第2の撮影ユニットと、
    前記記憶ユニットに接続され、且つ前記車室内から音声情報をキャプチャして前記音声情報を前記記憶ユニットに記憶するオーディオユニットと、
    前記記憶ユニットに接続される演算処理ユニットと、を備え、
    前記演算処理ユニットは、
    前記記憶ユニットからの前記車室内画像の前記オーバー露光画像、前記適正露光画像及び前記低露光画像に基づいて前記敵対的生成ネットワークモデルを確立する敵対的生成ネットワークモデル確立工程と、
    前記敵対的生成ネットワークモデルに基づいて前記車室内画像を調整して前記適正露光画像に近似する近似画像を生成する画像調整工程と、
    前記顔認識モデル及び前記人体姿勢検出モデルに基づいて前記近似画像を処理して顔認識結果及び人体姿勢検出結果を生成する車室内監視工程と、
    前記状況理解モデルに基づいて前記近似画像、前記車室外画像及び前記音声情報のうちの少なくとも1つを処理して前記状況理解結果を感知する状況理解感知工程と、を含む操作を実施するように配置される車室内監視・状況理解感知システム。
  11. 前記敵対的生成ネットワークモデル確立工程は、
    前記演算処理ユニットが前記オーバー露光画像に基づいてオーバー露光弁別器を確立するように駆動するオーバー露光弁別器確立工程と、
    前記演算処理ユニットが前記低露光画像に基づいて低露光弁別器を確立するように駆動する低露光弁別器確立工程と、を含み、
    前記敵対的生成ネットワークモデルは、生成器、前記オーバー露光弁別器及び前記低露光弁別器で構成される請求項10に記載の車室内監視・状況理解感知システム。
  12. 前記画像調整工程は、
    前記演算処理ユニットが前記オーバー露光画像及び前記低露光画像を前記生成器に入力して融合画像を生成するように駆動する融合画像生成工程と、
    前記演算処理ユニットが前記融合画像と前記低露光画像を比較して第1の輝度差分値を生成して前記第1の輝度差分値を前記オーバー露光弁別器に入力し、且つ前記融合画像と前記オーバー露光画像を比較して第2の輝度差分値を生成して前記第2の輝度差分値を前記低露光弁別器に入力するように駆動する輝度比較工程と、
    前記オーバー露光弁別器が前記第1の輝度差分値及び前記オーバー露光画像に基づいて第1の敵対的結果を前記生成器に出力するように駆動し、且つ前記低露光弁別器が前記第2の輝度差分値及び前記低露光画像に基づいて第2の敵対的結果を前記生成器に出力するように駆動する敵対的結果生成工程と、
    前記生成器が前記第1の敵対的結果及び前記第2の敵対的結果に基づいて前記車室内画像を調整して前記適正露光画像に近似する前記近似画像を生成するように駆動する輝度近似工程と、を含む請求項11に記載の車室内監視・状況理解感知システム。
  13. 前記記憶ユニットは、許容値にアクセスし、前記画像調整工程は、
    前記演算処理ユニットが前記近似画像及び前記適正露光画像に対して、前記近似画像と前記適正露光画像との間の輝度差分値が前記許容値内にあるか否かを確認する評価演算プログラムを実行するように駆動する輝度確認工程を更に含み、
    前記輝度差分値が前記許容値内にある場合、引き続き前記車室内監視工程を実行し、
    前記輝度差分値が前記許容値を超えた場合、前記演算処理ユニットは、前記第1の敵対的結果及び前記第2の敵対的結果に基づいて前記生成器を更新する請求項12に記載の車室内監視・状況理解感知システム。
  14. 前記車室内監視工程は、
    前記演算処理ユニットが前記顔認識モデルに基づいて前記近似画像から複数の顔キーポイント及び複数の頭部角度点をキャプチャし、前記顔キーポイント及び前記頭部角度点を演算して前記顔認識結果を生成するように駆動する顔認識工程と、
    前記演算処理ユニットが前記人体姿勢検出モデルに基づいて前記近似画像から人体骨格を推定し、前記人体骨格を演算して前記人体姿勢検出結果を生成するように駆動する人体姿勢推定工程と、を含む請求項10に記載の車室内監視・状況理解感知システム。
  15. 前記演算処理ユニットは、
    前記演算処理ユニットが前記近似画像、前記車室外画像及び前記音声情報をトレーニングして前記状況理解モデルを確立するように駆動する状況理解モデル確立工程を含む操作を更に実施する請求項10に記載の車室内監視・状況理解感知システム。
  16. 前記記憶ユニットは、畳み込みニューラルネットワーク及び回帰型ニューラルネットワークにアクセスし、前記状況理解モデル確立工程は、
    前記演算処理ユニットが前記記憶ユニットを介して前記近似画像、前記車室外画像及び前記音声情報を持続的に更新するように駆動する更新工程と、
    前記演算処理ユニットが前記畳み込みニューラルネットワーク及び前記回帰型ニューラルネットワークに基づいて更新後の前記近似画像、前記車室外画像及び前記音声情報を整合して前記状況理解モデルを生成するように駆動する整合工程と、を含む請求項15に記載の車室内監視・状況理解感知システム。
  17. 前記車室内監視工程は、
    前記演算処理ユニットが前記近似画像における運転者のジェスチャを分析してジェスチャ分析結果を生成するように駆動するジェスチャ分析工程を含み、
    前記整合工程では、前記畳み込みニューラルネットワーク及び前記回帰型ニューラルネットワークに基づいて更新後の前記ジェスチャ分析結果及び前記音声情報のうちの少なくとも1つ、前記近似画像及び前記車室外画像を整合して、前記状況理解モデルを生成する請求項16に記載の車室内監視・状況理解感知システム。
  18. 前記状況理解結果は、車室内判定結果及び車室外判定結果のうちの少なくとも1つを含み、且つ、前記状況理解感知工程は、
    前記演算処理ユニットが前記状況理解モデルに基づいて前記ジェスチャ分析結果又は前記音声情報を処理し、続いて前記近似画像を判定してマンマシンインタラクションの前記車室内判定結果を生成するように駆動する車室内マンマシンインタラクション判定工程と、
    前記演算処理ユニットが前記状況理解モデルに基づいて前記ジェスチャ分析結果又は前記音声情報を処理し、続いて前記車室外画像を判定してマンマシンインタラクションの前記車室外判定結果を生成するように駆動する車室外マンマシンインタラクション判定工程と、を含む請求項17に記載の車室内監視・状況理解感知システム。
JP2021195974A 2021-12-02 2021-12-02 車室内監視・状況理解感知方法及びそのシステム Active JP7351889B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021195974A JP7351889B2 (ja) 2021-12-02 2021-12-02 車室内監視・状況理解感知方法及びそのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021195974A JP7351889B2 (ja) 2021-12-02 2021-12-02 車室内監視・状況理解感知方法及びそのシステム

Publications (2)

Publication Number Publication Date
JP2023082303A JP2023082303A (ja) 2023-06-14
JP7351889B2 true JP7351889B2 (ja) 2023-09-27

Family

ID=86728535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021195974A Active JP7351889B2 (ja) 2021-12-02 2021-12-02 車室内監視・状況理解感知方法及びそのシステム

Country Status (1)

Country Link
JP (1) JP7351889B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190333198A1 (en) 2018-04-25 2019-10-31 Adobe Inc. Training and utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image
WO2020053837A1 (en) 2018-09-13 2020-03-19 Spectrum Optix Inc. Photographic underexposure correction using a neural network
WO2020241336A1 (ja) 2019-05-30 2020-12-03 ソニーセミコンダクタソリューションズ株式会社 画像認識装置および画像認識方法
US20210350129A1 (en) 2020-05-07 2021-11-11 Axis Ab Using neural networks for object detection in a scene having a wide range of light intensities

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190333198A1 (en) 2018-04-25 2019-10-31 Adobe Inc. Training and utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image
WO2020053837A1 (en) 2018-09-13 2020-03-19 Spectrum Optix Inc. Photographic underexposure correction using a neural network
WO2020241336A1 (ja) 2019-05-30 2020-12-03 ソニーセミコンダクタソリューションズ株式会社 画像認識装置および画像認識方法
US20210350129A1 (en) 2020-05-07 2021-11-11 Axis Ab Using neural networks for object detection in a scene having a wide range of light intensities

Also Published As

Publication number Publication date
JP2023082303A (ja) 2023-06-14

Similar Documents

Publication Publication Date Title
WO2019149061A1 (en) Gesture-and gaze-based visual data acquisition system
Rezaei et al. Look at the driver, look at the road: No distraction! no accident!
JP6964044B2 (ja) 学習装置、学習方法、プログラム、学習済みモデルおよびリップリーディング装置
JP6938055B2 (ja) 運転者の状態に応じて特化型のキャリブレーションのために運転者補助装置を自動で調整する方法及び装置
US20160171321A1 (en) Determination apparatus and determination method
EP1255177A2 (en) Image recognizing apparatus and method
US11302110B2 (en) Pedestrian action recognition and localization using RGB images
US20240029444A1 (en) Correction of images from a panoramic-view camera system in the case of rain, incident light and contamination
CN111814667B (zh) 一种智能路况识别方法
CN114049677A (zh) 基于驾驶员情绪指数的车辆adas控制方法及系统
JPH03254291A (ja) 車両運転者監視装置
US20210192345A1 (en) Method for generating labeled data, in particular for training a neural network, by using unlabeled partitioned samples
JP7233572B2 (ja) エクスプレイナブルセルフフォーカスされたアテンションを利用して行動予測を遂行する方法及び装置
JP7351889B2 (ja) 車室内監視・状況理解感知方法及びそのシステム
CN114529890A (zh) 状态检测方法、装置、电子设备及存储介质
JP6923362B2 (ja) 操舵角決定装置、自動運転車
WO2021047453A1 (zh) 图像质量确定方法、装置及设备
WO2018168038A1 (ja) 運転者の着座判定装置
TWI786893B (zh) 艙內監控與情境理解感知方法及其系統
Li et al. An end-to-end fully automatic bay parking approach for autonomous vehicles
US20230169782A1 (en) Cabin monitoring and situation understanding perceiving method and system thereof
WO2022123907A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、撮像装置、車両装置、並びに医療用ロボット装置
US20210201533A1 (en) Information processing device, mobile body, and learning device
JP7386462B2 (ja) 演算装置および学習済みモデル
WO2021024905A1 (ja) 画像処理装置、モニタリング装置、制御システム、画像処理方法、コンピュータプログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R150 Certificate of patent or registration of utility model

Ref document number: 7351889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150