JP2021026710A - 姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラム - Google Patents
姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラム Download PDFInfo
- Publication number
- JP2021026710A JP2021026710A JP2019146669A JP2019146669A JP2021026710A JP 2021026710 A JP2021026710 A JP 2021026710A JP 2019146669 A JP2019146669 A JP 2019146669A JP 2019146669 A JP2019146669 A JP 2019146669A JP 2021026710 A JP2021026710 A JP 2021026710A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- occupant
- deviation
- specific point
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
【課題】乗員の姿勢を正確に判別可能な姿勢判別システム等を提供する。【解決手段】姿勢判別制御装置100は、車両に搭乗した乗員の姿勢を判別する。姿勢判別制御装置100は、乗員の人体における特定点に関して位置情報を取得する特定点情報取得部110を備える。姿勢判別制御装置100は、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合を算出するずれ度合算出部130を備える。姿勢判別制御装置100は、学習済みモデルに、ずれ度合算出部にて算出されたずれ度合を入力することにより、判別対象姿勢の姿勢種類を判別する判別部140を備える。学習済みモデルは、複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類を、ずれ度合の入力に対して出力するように学習されている。【選択図】図2
Description
この明細書における開示は、車両に搭乗した乗員の姿勢を判別する技術に関する。
従来、特許文献1に開示されているように、車両に搭乗した乗員の姿勢を判別する技術が知られている。特許文献1の技術は、撮影装置で運転者の顔を撮影して運転者の視線方向を特定することにより、乗員の姿勢として乗員が正面方向を見ているか否かを判定している。
さて、近年、乗員の向きだけでなく、複数種類の姿勢を判別することが期待されている。しかし、乗員の姿勢には個人差がある。このため、或る乗員にとって所定の姿勢種類に分類される姿勢が、他の乗員にとって異なる姿勢種類に分類される姿勢と、実質的に区別できない場合が発生し得る。その結果、乗員の姿勢を正確に判別することが困難となるおそれがある。
開示される目的は、乗員の姿勢を正確に判別可能な姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラムを提供することである。
この明細書に開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。また、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、技術的範囲を限定するものではない。
開示された姿勢判別システムのひとつは、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別システムであって、乗員の人体における特定点に関して位置情報を取得する特定点情報取得部(110)と、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合を算出するずれ度合算出部(130)と、複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類をずれ度合の入力に対して出力するように学習された学習済みモデルに、ずれ度合算出部にて算出されたずれ度合を入力することにより、判別対象姿勢の姿勢種類を判別する判別部(140)と、を備える。
開示された姿勢判別方法のひとつは、プロセッサ(11)により実行され、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法であって、乗員の人体の特定点に関する位置情報を取得し(S105)、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合を算出し(S106)、ずれ度合の入力に対して複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類を出力するように学習された学習済みモデルに、算出したずれ度合を入力し、判別対象姿勢の分類される姿勢種類を出力させる(S107)、ことを含む。
開示された学習済みモデル生成方法のひとつは、プロセッサ(11)によって実行され、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを生成する学習済みモデル生成方法であって、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類と、を含む教師データを取得し(S150)、教師データに基づき、ずれ度合の入力に対して、判別対象姿勢の分類される姿勢種類を出力する学習済みモデルを生成する(S151)、ことを含む。
開示された学習済みモデル生成プログラムのひとつは、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを生成させるために記憶媒体に格納され、プロセッサ(11)に実行させる命令を含む学習済みモデル生成プログラムであって、命令は、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類と、を含む教師データを取得させ(S150)、教師データに基づき、ずれ度合の入力に対して、判別対象姿勢の分類される姿勢種類を出力する学習済みモデルを生成させる(S151)、ことを含む。
開示された学習済みモデル更新方法のひとつは、プロセッサ(2a)によって実行され、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを更新する学習済みモデル更新方法であって、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類と、を含む教師データを取得し(S160)、教師データに基づき、ずれ度合の入力に対して、判別対象姿勢の分類される姿勢種類を出力する学習済みモデルを更新する(S161)、ことを含む。
開示された学習済みモデル更新プログラムのひとつは、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを更新させるために記憶媒体に格納され、プロセッサ(2a)に実行させる命令を含む学習済みモデル更新プログラムであって、命令は、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類と、を含む教師データを取得させ(S160)、教師データに基づき、ずれ度合の入力に対して、判別対象姿勢の分類される姿勢種類を出力する学習済みモデルを更新させる(S161)、ことを含む。
これらの開示によれば、姿勢判別に用いられる学習済みモデルは、乗員の判別対象姿勢における特定点の、基準姿勢からの動きによるずれたずれ度合の入力に対して、判別対象姿勢の分類される姿勢種類を出力するように学習された状態となる。故に、姿勢判別において、乗員ごとの基準姿勢に対する判別対象姿勢の動きのずれ度合に応じて、分類される姿勢種類を判別できる。したがって、各姿勢種類に対応する姿勢の個人差が、姿勢判別に与える影響を抑制できる。以上により、乗員の姿勢を正確に判別可能な姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラムを提供することができる。
(第1実施形態)
第1実施形態の姿勢判別システム3について、図1〜図15を参照しながら説明する。姿勢判別システム3は、図1〜図3に示す姿勢判別制御装置100およびセンタ2によって実現されている。
第1実施形態の姿勢判別システム3について、図1〜図15を参照しながら説明する。姿勢判別システム3は、図1〜図3に示す姿勢判別制御装置100およびセンタ2によって実現されている。
<車両1の構成>
姿勢判別制御装置100は、車両1において用いられるHMI(Human Machine Interface)システム10の一部を構成している。HMIシステム10は、車両1の乗員(例えばドライバ等)によるユーザ操作を受け付ける入力インターフェース機能と、ドライバへ向けて情報を提示する出力インターフェース機能とを備えている。
姿勢判別制御装置100は、車両1において用いられるHMI(Human Machine Interface)システム10の一部を構成している。HMIシステム10は、車両1の乗員(例えばドライバ等)によるユーザ操作を受け付ける入力インターフェース機能と、ドライバへ向けて情報を提示する出力インターフェース機能とを備えている。
HMIシステム10は、車両1に搭載された車載ネットワークの通信バス99に通信可能に接続されている。HMIシステム10は、車載ネットワークに設けられた複数のノードのうちの1つである。車載ネットワークの通信バス99には、例えばロケータ40、周辺監視センサ30、V2X通信器50、およびDCM60等がそれぞれノードとして接続されている。通信バス99に接続されたこれらのノードは、相互に通信可能である。
ロケータ40は、複数の取得情報を組み合わせる複合測位により、車両1の高精度な位置情報等を生成する。ロケータ40は、例えば複数車線のうちで、車両1が走行する車線を特定可能である。ロケータ40は、GNSS(Global Navigation Satellite System)受信器41、慣性センサ42、高精度地図データベース(以下、「高精度地図DB」)43、およびロケータECU44を含む構成である。
GNSS受信器41は、複数の人工衛星(測位衛星)から送信された測位信号を受信する。GNSS受信器41は、GPS、GLONASS、Galileo、IRNSS、QZSS、Beidou等の衛星測位システムのうちで、少なくとも1つの衛星測位システムの各測位衛星から、測位信号を受信可能である。
慣性センサ42は、例えばジャイロセンサおよび加速度センサを有している。高精度地図DB43は、不揮発性メモリを主体に構成されており、通常のナビゲーションに用いられるよりも高精度な地図データ(以下、「高精度地図データ」)を記憶している。高精度地図データは、少なくとも高さ(z)方向の情報について、詳細な情報を保持している。高精度地図データには、道路の三次元形状情報(道路構造情報)、レーン数情報、各レーンに許容された進行方向を示す情報等、高度運転支援および自動運転に利用可能な情報が含まれている。
ロケータECU44は、プロセッサ、メモリ、入出力インターフェース、およびこれらを接続するバス等を備えたマイクロコンピュータを主体として含む構成である。ロケータECU44は、GNSS受信器41で受信する測位信号、慣性センサ42の計測結果、および通信バス99に出力された車速情報等を組み合わせ、車両1の自車位置および進行方向等を逐次測位する。ロケータECU44は、測位結果に基づく車両1の位置情報および方角情報を、通信バス99を通じて、姿勢判別制御装置100等に提供する。
なお、車速情報は、車両1の現在の走行速度を示す情報であり、車両1の各輪のハブ部分に設けられた車輪速センサの検出信号に基づいて生成される。車速情報を生成し、通信バス99に出力するノード(ECU)は、適宜変更されてよい。例えば、各輪の制動力配分を制御するブレーキ制御ECU、または姿勢判別制御装置100等の車載ECUが、各輪の車輪速センサと電気的に接続されており、車速情報の生成および通信バス99への出力を継続的に実施する。
ロケータECU44は、姿勢判別制御装置100等からの要求に応じて、必要とされた高精度地図データが高精度地図DB43にあるか否かを判定する。要求された高精度地図データが高精度地図DB43にある場合、ロケータECU44は、該当する高精度地図データを高精度地図DB43から読み出し、要求元となるECUに提供する。
周辺監視センサ30は、車両1の周辺環境を監視する自律センサである。周辺監視センサ30は、自車周囲の検出範囲から、歩行者、サイクリスト、人間以外の動物、および他車両等の移動物体、さらに路上の落下物、ガードレール、縁石、道路標識、走行区画線等の路面表示、および道路脇の構造物等の静止物体を検出可能である。周辺監視センサ30は、車両1の周囲の物体を検出した検出情報を、通信バス99を通じて、姿勢判別制御装置100等に提供する。
周辺監視センサ30は、物体検出のための検出構成として、フロントカメラ31、ミリ波レーダ32およびソナー33を有している。フロントカメラ31は、車両1の前方範囲を撮影した撮像データ、および撮像データの解析結果の少なくとも一方を、検出情報として出力する。ミリ波レーダ32は、例えば車両1の前後の各バンパーに互いに間隔を開けて複数配置されている。ミリ波レーダ32は、ミリ波または準ミリ波を、車両1の前方範囲、前側方範囲、後方範囲および後側方範囲等へ向けて照射する。ミリ波レーダ32は、移動物体および静止物体等で反射された反射波を受信する処理により、検出情報を生成する。ソナー33は、車両1の前方範囲、前側方範囲、後方範囲および後側方範囲等へ向けて超音波を照射する。ソナー33は、照射方向に存在する移動物体および静止物体等で反射された超音波を受信する処理により、検出情報を取得する。なお、ライダ等の他の検出構成が、周辺監視センサ30に含まれていてもよい。
V2X(Vehicle to Everything)通信器50は、車車間通信、路車間通信、および歩車間通信等を実現する車載通信機である。V2X通信器50は、他車両に搭載された車載器、道路に設置された路側機、および歩行者の所持する携帯端末等が通信範囲に存在する場合、これらの通信構成と双方向通信可能である。V2X通信器50は、通信を通じて取得した通信データを、通信バス99等を介して姿勢判別制御装置100に提供可能である。
DCM(Data Communication Module)60は、車両1に搭載される通信モジュールである。DCM60は、LTE(Long Term Evolution)および5G等の通信規格に沿った無線通信により、車両1の周囲の基地局との間で電波を送受信する。DCM60の搭載により、車両1は、インターネットに接続可能なコネクテッドカーとなる。DCM60は、クラウド上に設けられたプローブサーバから、最新の高精度地図データを取得可能である。DCM60は、ロケータECU44と連携して、高精度地図DB43に格納された高精度地図データを、最新の情報に更新する。
<HMIシステム10の構成>
次に、HMIシステム10に含まれる各構成の詳細を、図1および図2に基づき順に説明する。HMIシステム10には、表示装置20、スピーカ21、駆動部22、操作デバイス24、および乗員カメラユニット25が含まれている。これらの構成は、姿勢判別制御装置100と電気的に接続されている。
次に、HMIシステム10に含まれる各構成の詳細を、図1および図2に基づき順に説明する。HMIシステム10には、表示装置20、スピーカ21、駆動部22、操作デバイス24、および乗員カメラユニット25が含まれている。これらの構成は、姿勢判別制御装置100と電気的に接続されている。
表示装置20は、乗員に視覚情報を提示する車載デバイスである。表示装置20は、例えばヘッドアップディスプレイ、メータディスプレイおよびセンターインフォメーションディスプレイ等を含む。
スピーカ21は、乗員に音声等の聴覚情報を提示する車載デバイスである。
駆動部22は、サンバイザ23を駆動する車載デバイスである。サンバイザ23は、ルーフパネルのフロントウインドシールド近傍に設けられた板状の日除け部材である。サンバイザ23は、ルーフパネルに回動可能に取り付けられている。サンバイザ23は、手動または駆動部22によって回動され、フロントウインドシールド上部の日射を遮蔽する。
操作デバイス24は、ドライバ等によるユーザ操作を受け付ける入力部である。操作デバイス24は、例えばセンターコンソールに設けられているスイッチおよびレバー等を含む。また、操作デバイス24には、ステアリングホイールのスポーク部に設けられたステアスイッチ、ステアリングコラム部に設けられた操作レバー等が含まれていてもよい。操作デバイス24には、例えば運転支援機能および自動運転機能等の走行制御機能、車室内温度調整等の空調機能、および他の車載機器の制御機能等といった、所定のサービスを実行させるユーザ操作が入力される。
乗員カメラユニット25は、近赤外光源および近赤外カメラと、これらを制御する制御ユニットとを含む構成である。乗員カメラユニット25は、運転席のヘッドレスト部に近赤外カメラを向けた姿勢にて、例えば車両1のルームミラー付近に設けられている。近赤外カメラは、乗員の人体の実質全体を撮像範囲とするように設けられており、これにより運転中の乗員の顔部および腕部を少なくとも撮像可能となっている。
乗員カメラユニット25は、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像は、制御ユニットによって画像解析される。制御ユニットは、乗員の骨格データを撮像画像から抽出し、姿勢判別制御装置100へ向けて逐次出力する。
<姿勢判別制御装置100の構成>
姿勢判別制御装置100は、HMIシステム10において、表示装置20を含む複数の車載デバイスを統合的に制御する電子制御装置である。姿勢判別制御装置100は、プロセッサ11、メモリ13、入出力インターフェース14、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ11は、演算処理のためのハードウェアである。プロセッサ11は、CPU(Central Processing Unit)等の演算コアを少なくとも1つ含む構成である。
姿勢判別制御装置100は、HMIシステム10において、表示装置20を含む複数の車載デバイスを統合的に制御する電子制御装置である。姿勢判別制御装置100は、プロセッサ11、メモリ13、入出力インターフェース14、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ11は、演算処理のためのハードウェアである。プロセッサ11は、CPU(Central Processing Unit)等の演算コアを少なくとも1つ含む構成である。
メモリ13は、コンピュータにより読み取り可能なプログラムおよびデータ等を非一時的に格納または記憶する、例えば半導体メモリ、磁気媒体および光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)およびRISC(Reduced Instruction Set Computer)−CPU等のうち、少なくとも一種類をコアとして含む。メモリ13は、後述の姿勢判別プログラムおよび学習済みモデル更新プログラム等、プロセッサ11によって実行される種々のプログラムを格納している。
プロセッサ11は、メモリ13に格納された姿勢判別プログラムに含まれる複数の命令を、実行する。これにより姿勢判別制御装置100は、姿勢判別するための機能ブロックを、複数構築する。このように姿勢判別制御装置100では、姿勢判別するためにメモリ13に格納されたプログラムが複数の命令をプロセッサ11に実行させることで、複数の機能ブロックが構築される。具体的に、姿勢判別制御装置100には、特定点情報取得部110、基準情報生成部120、ずれ度合算出部130、判別部140、およびアプリケーション選択部150等の機能部が構築される。また、姿勢判別制御装置100では、学習済みモデルを更新するためにメモリ13に格納された学習済みモデル更新プログラムが複数の命令をプロセッサ11に実行させることで、複数の機能ブロックが構築される。具体的に、姿勢判別制御装置100には、データ提供部160および更新部170等の機能部が構築される。
特定点情報取得部110は、乗員の人体における特定点に関する位置情報を取得する。特定点に関する位置情報の取得のために、特定点情報取得部110は、まず乗員カメラユニット25から提供された骨格データを取得する。例えば、骨格データには、図4に示すように、乗員の人体の特徴点および特徴点同士の接続関係のデータが含まれている。図4の表は、着座するシートが前位置の場合および後位置の場合のそれぞれにおいて、後述の基準姿勢および前屈み姿勢をとったときの骨格データの例を示している。このように、シートの位置やシートに対する着座位置および乗員の身体状態等の個人差により、姿勢種類ごとの姿勢の骨格データは、乗員によって比較的大きく異なるものになり得る。
特定点情報取得部110は、取得した骨格データから、予め定められた人体部位の位置を抽出することで、当該位置を特定点として取得する。具体的には、特定点情報取得部110は、図5および図6に示すように、乗員の顔部中央の特定点と、乗員の腕部の特定点とを骨格データから取得する。特定点情報取得部110は、乗員の目と目の間、すなわち両目の中間位置を、顔部中央の特定点(顔部特定点)として取得する。または、特定点情報取得部110は、耳と耳の間の位置、鼻の位置、顔領域の中心地等を、顔部特定点として取得してもよい(図5参照)。特定点情報取得部110は、顔部特定点を、例えば車両座標系における位置座標として取得する。
特定点情報取得部110は、乗員の腕部の所定の位置(手首、肘、肩等)を、腕部の特定点(腕部特定点)として取得する。特定点情報取得部110は、腕部特定点を、顔部特定点からの差分値として取得してもよく、車両座標系における位置座標として取得してもよい。なお、特定点情報取得部110は、足部等他の部位の特定点に関する位置情報を取得してもよい。また、後述の判別する姿勢種類によっては、特定点情報取得部110は、顔部の特定点または他の部位の特定点のうちいずれかのみを取得してもよい。特定点情報取得部110は、取得した特定点情報を、基準情報生成部120およびずれ度合算出部130に適宜提供する。
基準情報生成部120は、乗員の基準姿勢における特定点情報(基準情報)を生成する。基準情報生成部120は、乗員が前を向いて運転している通常運転状態での姿勢を基準姿勢とする。基準情報生成部120は、通常運転状態か否かを、ロケータECU44、周辺監視センサ30、およびV2X通信器50等から取得した情報に基づいて判定する。基準情報生成部120は、例えばロケータECU44からの地図情報に基づき、周囲に歩道がない道路を走行している場合に、通常運転状態であると判定する。または、基準情報生成部120は、周辺監視センサ30およびV2X通信器50の情報に基づき、歩行者および先行車が存在しない場合に、通常運転状態であると判定する。または、基準情報生成部120は、ロケータECU44からの慣性センサ42の検出情報に基づき、直線道路を走行している場合に、通常運転状態であると判定してもよい。基準情報生成部120は、複数の情報を組み合わせて通常運転状態であるか否かを判定してもよい。なお、基準情報生成部120は、表示装置20およびスピーカ21等から、通常運転時の姿勢をとる旨の要請を乗員に提示し、提示中の乗員の骨格データから基準情報を生成する構成であってもよい。
基準情報生成部120は、通常運転状態であると判定されている間、特定点情報取得部110から図5に示すような特定点情報を取得する。特定点情報取得部110は、所定時間(例えば10秒程度)分の特定点情報を蓄積し、蓄積した情報の平均値または中央値を算出することで、基準情報を生成する。基準情報生成部120は、生成した基準情報をメモリ13に格納し、適宜ずれ度合算出部130に提供する。
ずれ度合算出部130は、乗員の基準姿勢における特定点に対して、乗員の判別対象姿勢における特定点が基準姿勢からの動きによりずれたずれ度合を算出する。ずれ度合算出部130は、基準姿勢の顔部特定点に対する判断対象姿勢の顔部特定点の位置変化割合を、顔部特定点におけるずれ度合として算出する。
具体的には、ずれ度合算出部130は、乗員の顔部の横幅を基準単位とし、各座標軸方向へのずれ量の割合を、ずれ度合とする。ずれ度合算出部130は、基準姿勢における腕部特定点に対する判断対象姿勢における腕部特定点の位置の変化割合を、腕部特定点におけるずれ度合として算出する(図6参照)。具体的には、ずれ度合算出部130は、まず基準姿勢における腕部特定点の、顔部特定点からの長さを基準単位とする。そして、ずれ度合算出部130は、判断対象姿勢における腕部特定点の、顔部特定点からの長さが、基準単位に対してどの程度変化したかの変化割合を、ずれ度合として算出する。変化割合は、例えば座標軸方向ごとに算出される。ずれ度合算出部130は、算出した各ずれ度合を、判別部140に逐次提供する。また、ずれ度合算出部130は、算出した各ずれ度合を、メモリ13に蓄積する。
判別部140は、複数の姿勢種類のうち判別対象姿勢の分類される姿勢種類をずれ度合の入力に対して出力するように学習された学習済みモデルに、ずれ度合算出部130にて算出されたずれ度合を入力することにより、判別対象姿勢の姿勢種類を判別する。
学習済みモデルは、予め生成されてメモリ13に格納されたモデルである。学習済みモデルは、ずれ度合と、当該ずれ度合が分類される姿勢種類とを教師データとして学習されている。学習済みモデルは、ずれ度合の入力に対して、分類される姿勢種類を出力する分類器である。学習済みモデルは、ニューラルネットワーク、k−means、サポートベクターマシン、ベイジアンネットワーク等の分類アルゴリズムによって提供される。
学習済みモデルが分類する複数の姿勢種類の一例について、図7の表を参照して説明する。姿勢種類には、前屈み姿勢、かざし姿勢、操作姿勢、降車姿勢の4種類を少なくとも含んでいる。また、姿勢種類には、上述の4種類以外を含んでいてもよい。例えば、セカンドタスクを行うセカンドタスク姿勢が姿勢種類に含まれていてもよい。セカンドタスクは、車両1の運転操作に関するタスクである運転タスク以外の二次的なタスクであり、スマートフォン等の携帯デバイスの操作などのタスクを含む。
前屈み姿勢は、基準姿勢に対して前屈みになり、左右確認を行う姿勢である。基準姿勢に対して、顔部の位置が所定のレベル以上前方に移動した姿勢が、前屈み姿勢とされる。前屈み姿勢は、例えば、見通しの悪い交差点等、前方の視界が確保しづらい環境下で、前方の走行環境を確認する意図で取られる姿勢等とされる。
かざし姿勢は、手を顔前にかざす姿勢である。基準姿勢に対して、顔部と手との間隔が所定のレベル以下まで接近した姿勢が、かざし姿勢とされる。かざし姿勢は、例えば、西日等の直射日光が差して眩しい環境下で、前方の状況を確認する意図で取られる姿勢等とされる。
操作姿勢は、操作デバイス24を探す姿勢である。基準姿勢に対して、乗員の腕部と操作デバイス24の設置位置との間隔が、所定のレベル以下まで接近した姿勢が、操作姿勢とされる。操作姿勢は、例えば、運転中に操作デバイス24を操作する意図で取られる姿勢等とされる。
降車姿勢は、手と頭をドアに接近させる姿勢である。基準姿勢に対して、乗員の顔部および腕部が、ドア位置に対して所定のレベル以下まで接近した姿勢が、降車姿勢とされる。降車姿勢は、例えば、停車中において直ちに降車する意図で取られる姿勢等とされる。
アプリケーション選択部150は、判別した姿勢種類に基づき、乗員の意図を推定する意図推定部として機能と、推定した意図に対応したアプリケーションを選択し、起動する機能とを備えている。具体的には、アプリケーション選択部150は、前方表示アプリ、日除けアプリ、対話アプリ、接近警告アプリの少なくとも4つのアプリケーションを、判別した姿勢種類に応じて選択的に実行する。また、上述した以外のアプリケーションを含んでいてもよい。以上により、アプリケーション選択部150は、予め決められた姿勢が行われたことをトリガとして、対応するアプリケーションを実行する。すなわち、アプリケーション選択部150は、乗員の人体によるジェスチャ操作に基づき、アプリケーション実行している、ということもできる。
前方表示アプリは、前屈み姿勢を判別した場合に起動されるアプリケーションである。前方表示アプリは、車両1の進行方向前方の走行環境に関する情報を、表示装置20に表示させる。
日除けアプリは、かざし姿勢を判別した場合に起動されるアプリケーションである。前方表示アプリは、駆動部22を駆動させ、サンバイザ23を下す処理を実行させる。
対話アプリは、操作姿勢を判別した場合に起動されるアプリケーションである。対話アプリは、所謂バーチャルアシスタント機能を提供するアプリケーションであり、乗員との対話に基づいて、乗員の希望する処理を適宜実行する。対話アプリは、起動されると、乗員が起動しようとしているアプリケーションを尋ねる内容の音声を、スピーカ21から出力させる。
接近警告アプリは、降車姿勢を判別した場合に実行されるアプリケーションである。接近警告アプリは、車両1に他車両等の移動体が接近している場合、警告音または接近を伝える音声等をスピーカ21から出力させる。接近警告アプリは、表示装置20に警告表示を実行させてもよい。
データ提供部160は、姿勢判別制御装置100にて蓄積されたずれ度合に関するデータを、教師データの一部としてDCM60を介してセンタ2に提供する。例えばデータ提供部160は、予め設定されたサンプル数のデータが蓄積された場合に、当該データを提供用データとして提供する。
更新部170は、センタ2から送信した更新情報を、DCM60を介して取得し、学習済みモデルを更新する。更新情報は、調整された学習済みパラメータである。例えば学習済みモデルがニューラルネットワークによって提供される場合、更新情報は、重み係数およびバイアスとされる。また、例えば学習済みモデルがベイジアンネットワークによって提供される場合、更新部170は、新たな教師データを取得し、当該教師データを用いて学習済みモデルに追加学習させることで、学習済みモデルを更新してもよい。
<センタ2の構成>
センタ2は、定置施設に設けられたコンピュータである。センタ2は、広域通信網を介して車両1と通信可能に構成されている。センタ2は、プロセッサ2a、メモリ2c、入出力インターフェース2d、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ2aは、演算処理のためのハードウェアである。プロセッサ2aは、CPU(Central Processing Unit)等の演算コアを少なくとも1つ含む構成である。メモリ2cは、不揮発性の記憶媒体を含む構成である。メモリ2cは、後述の学習済みモデル生成プログラムおよび学習済みモデル更新プログラム等、プロセッサ2aによって実行される種々のプログラムを格納している。
センタ2は、定置施設に設けられたコンピュータである。センタ2は、広域通信網を介して車両1と通信可能に構成されている。センタ2は、プロセッサ2a、メモリ2c、入出力インターフェース2d、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ2aは、演算処理のためのハードウェアである。プロセッサ2aは、CPU(Central Processing Unit)等の演算コアを少なくとも1つ含む構成である。メモリ2cは、不揮発性の記憶媒体を含む構成である。メモリ2cは、後述の学習済みモデル生成プログラムおよび学習済みモデル更新プログラム等、プロセッサ2aによって実行される種々のプログラムを格納している。
センタ2は、メモリ2cに格納されたプログラムをプロセッサ11によって実行することで、複数の機能部を有する。具体的に、センタ2には、教師データ取得部210、学習部220、および更新情報提供部230等の機能部が構築される。
教師データ取得部210は、学習済みモデルの生成に必要な教師データ、すなわちずれ度合と、当該ずれ度合に対応する姿勢種類とを取得する。教師データは、予め実験等により収集されたデータとされる。例えば、教師データは、車両または車両を模擬した設備に搭乗した複数の被験者の骨格データに基づき取得されたものである。または、教師データは、出荷後の姿勢判別制御装置100におけるデータ提供部160から提供されたデータを含んでいてもよい。教師データ取得部210は、取得した教師データを学習部220に適宜提供する。
学習部220は、取得した教師データに基づいて、学習を行う。学習部220は、姿勢判別制御装置100の出荷前に、予めメモリ13に格納する学習済みモデルを生成する。学習部220は、姿勢判別制御装置100の出荷後に、姿勢判別制御装置100の収集したデータに基づいて再学習を行い、学習済みモデルを更新する。
更新情報提供部230は、再学習によって学習済みモデルが更新された場合、姿勢判別制御装置100に格納された学習済みモデルを更新するためのパラメータを、更新情報として姿勢判別制御装置100に提供する。なお、更新情報提供部230は、新たな教師データそのものを更新情報として提供してもよい。
<姿勢判別方法>
次に、機能ブロックの共同により、姿勢判別システム3が姿勢判別する姿勢判別方法等のフローを、図8〜図15に従って以下に説明する。まず、姿勢判別制御装置100が姿勢判別する姿勢判別方法のフローを、図8に従って以下に説明する。なお、後述するフローにおいて「S」とは、プログラムに含まれた複数命令によって実行される、フローの複数ステップを意味する。
次に、機能ブロックの共同により、姿勢判別システム3が姿勢判別する姿勢判別方法等のフローを、図8〜図15に従って以下に説明する。まず、姿勢判別制御装置100が姿勢判別する姿勢判別方法のフローを、図8に従って以下に説明する。なお、後述するフローにおいて「S」とは、プログラムに含まれた複数命令によって実行される、フローの複数ステップを意味する。
姿勢判別制御装置100は、まずS101にて、ロケータECU44、周辺監視センサ30およびV2X通信器50からの取得した情報に基づき、乗員が基準姿勢をとっているか否かを判定する。S101は、基準姿勢をとっていると判定されるまで繰り返される。基準姿勢を取っていると判定されるとS102へと進み、乗員カメラユニット25から提供される骨格データに基づき、基準姿勢における特定点情報を取得する。その後S103へと進み、取得した特定点情報を、基準姿勢データとしてメモリ13に格納する。S101〜S103までの処理により、車両1に搭乗した乗員の基準姿勢の設定が完了する。基準姿勢の設定以降、乗員の姿勢は判別対象姿勢として扱われる。
次に、S105では、乗員カメラユニット25からの骨格データに基づいて判別対象姿勢の特定点情報を取得し、S106へと進む。S106では、判別対象姿勢での特定点情報と、基準姿勢での特定点情報とに基づき、基準姿勢からの動きに応じた判別対象姿勢のずれ度合を算出する。S107では、算出したずれ度合を、予め記憶された学習済みモデルに入力してS108へと進む。S108では、学習済みモデルからの出力結果を取得することで、判別対象姿勢の分類される姿勢種類を判別する。姿勢種類を判別すると、一連の処理を終了する。
次に、S108での姿勢判別結果に基づき姿勢判別制御装置100がアプリケーションを実行する方法の一例を、図9〜図12のフローチャートを参照しながら説明する。
図9のフローチャートは、前方表示アプリの実行処理を示している。S110では、姿勢種類が前屈み姿勢に判別されたか否かを判定する。前屈み姿勢に判別されたと判定されると、S111へと進む。S111では、乗員に前方の走行環境を確認する意図が有ると推定する。S112では、推定した意図に基づき、前方表示アプリを起動して前方の走行環境を表示装置20に表示させる。
図10のフローチャートは、日除けアプリの実行処理を示している。S120では、姿勢種類がかざし姿勢に判別されたか否かを判定する。かざし姿勢に判別されたと判定されると、S121へと進む。S121では、乗員に日除けの意図が有ると推定する。S122では、推定した意図に基づき、日除けアプリを起動して駆動部22によりサンバイザ23を下させる。または、サンバイザ23を下すことを促す旨を、表示装置20およびスピーカ21等から報知させてもよい。
図11のフローチャートは、対話アプリの実行処理を示している。S130では、姿勢種類が操作姿勢に判別されたか否かを判定する。操作姿勢に判別されたと判定されると、S131へと進む。S131では、乗員に操作デバイス24の操作の意図が有ると推定する。S132では、推定した意図に基づき、対話アプリを起動して乗員に希望サービスを尋ねる音声をスピーカ21に出力させる。すなわち、操作デバイス24の操作により実行しようとしている機能について、乗員に問いかける処理を実行させる。
図12のフローチャートは、接近警告アプリの実行処理を示している。S140では、姿勢種類が降車姿勢に判別されたか否かを判定する。降車姿勢に判別されたと判定されると、S141へと進む。S141では、乗員に降車の意図が有ると推定する。S143では、推定した意図に基づき接近警告アプリを起動し、周辺監視センサ30による検出情報等に基づいて、車両1の周囲に接近する他車両の有無を判定する。接近する他車両が有ると判定されると、S144へと進み、警告音をスピーカ21に出力させる。
なお、上述の姿勢判別方法およびアプリケーションの実行方法において、少なくとも一部の処理が、姿勢判別制御装置100以外の他のコンピュータにて実行されてもよい。
<学習済みモデル生成方法>
次に、センタ2が学習済みモデルを生成する学習済みモデル生成方法のフローを、図13に従って以下に説明する。センタ2は、まずS150にて、ずれ度合および対応する姿勢種類を、教師データとして取得する。次にS151へと進み、取得した教師データに基づく学習を行い、ずれ度合の入力に対して姿勢種類を出力する学習済みモデルを生成する。学習済みモデルの生成が完了すると、一連のフローチャートを終了する。
次に、センタ2が学習済みモデルを生成する学習済みモデル生成方法のフローを、図13に従って以下に説明する。センタ2は、まずS150にて、ずれ度合および対応する姿勢種類を、教師データとして取得する。次にS151へと進み、取得した教師データに基づく学習を行い、ずれ度合の入力に対して姿勢種類を出力する学習済みモデルを生成する。学習済みモデルの生成が完了すると、一連のフローチャートを終了する。
なお、上述の学習済みモデル生成方法において、少なくとも一部の処理が、センタ2以外の他のコンピュータにて実行されてもよい。
<学習済みモデル更新方法>
次に、姿勢判別システム3が学習済みモデルを更新する学習済みモデル更新方法のフローを、図14および図15に従って以下に説明する。図14は、学習済みモデル更新方法のうちセンタ2の実行するフローを示している。S160では、まず教師データを取得する。次にS161では、教師データに基づいて学習を行い、学習済みモデルのパラメータを更新する。次にS162にて更新パラメータを姿勢判別制御装置100に提供し、一連の処理を終了する。
次に、姿勢判別システム3が学習済みモデルを更新する学習済みモデル更新方法のフローを、図14および図15に従って以下に説明する。図14は、学習済みモデル更新方法のうちセンタ2の実行するフローを示している。S160では、まず教師データを取得する。次にS161では、教師データに基づいて学習を行い、学習済みモデルのパラメータを更新する。次にS162にて更新パラメータを姿勢判別制御装置100に提供し、一連の処理を終了する。
図15は、学習済みモデル更新方法のうち姿勢判別制御装置100の実行するフローを示している。姿勢判別制御装置100は、まずS170にて、センタ2に教師データとして提供する提供用データが有るか否かを判定する。例えば、S170では、ずれ度合に関するデータが所定のデータ量以上に蓄積された場合に、提供用データが有ると判定する。提供用データが有ると判定されるとS171へと進み、提供用データをセンタ2へと送信して、S172へと進む。一方でS170にて提供用データが無いと判定された場合には、S171をスキップしてS172へと進む。S172では、学習済みモデルの更新情報の有無を判定する。すなわち、センタ2から学習済みモデルの更新情報を取得したか否かを判定する。更新情報が有ると判定されるとS173へと進み、メモリ13に格納されている学習済みモデルを、取得した更新情報を用いて更新した後、一連の処理を終了する。
なお、上述の学習済みモデル更新方法において各ステップを実行するコンピュータは、上述の通りでなくてもよい。すなわち、S160〜S162の処理は、センタ2ではなく姿勢判別制御装置100または他のコンピュータにて実行されてもよい。また、S170〜S173の処理は、姿勢判別制御装置100ではなくセンタ2または他のコンピュータにて実行されてもよい。
次に第1実施形態の姿勢判別システム3がもたらす作用効果について説明する。
第1実施形態において、乗員の姿勢の判別は、判別対象姿勢の分類される姿勢種類をずれ度合の入力に対して出力するように学習された学習済みモデルに、ずれ度合算出部130にて算出されたずれ度合を入力することにより、実行される。これによれば、姿勢判別において、乗員ごとの基準姿勢に対する判別対象姿勢の動きのずれ度合に応じて、分類される姿勢種類を判別できる。したがって、各姿勢種類に対応する姿勢の個人差が、姿勢判別に与える影響を抑制できる。以上により、乗員の姿勢を正確に判別することが可能となる。
第1実施形態において、ずれ度合は、乗員の顔部に設定された特定点のずれ度合を含む。顔部は、着座中であっても姿勢変化による動きが比較的大きい人体部位である。故に、特定点を顔部に設定することで、より正確な姿勢種類が可能となる。特に第1実施形態において、特定点は、顔部の中央に設定される。顔部の中央は、比較的特徴を抽出しやすいため、さらに姿勢判別を正確に行うことが可能となる。
第1実施形態において、ずれ度合は、乗員の腕部に設定された特定点のずれ度合を含む。腕部は、顔部と同様に、着座中であっても姿勢変化による動きが比較的大きい人体部位である。故に、特定点を腕部に設定することで、より正確な姿勢種類が可能となる。
第1実施形態の姿勢判別方法において、判別対象姿勢が前屈み姿勢に分類された場合には、前方の走行環境を確認する意図を乗員が持っていると推定される。これによれば、乗員の姿勢が前屈みであることに基づき、前方の走行環境を確認する意図が有ると推定できるので、当該意図に応じた処置を実行可能となる。
第1実施形態の姿勢判別方法において、判別対象姿勢がかざし姿勢に分類された場合には、日差しを遮る意図を乗員が持っていると推定される。これによれば、乗員の姿勢がかざし姿勢であることに基づき、日差しを遮る意図が有ると推定できるので、当該意図に応じた処置を実行可能となる。
第1実施形態において、姿勢判別制御装置100から提供された教師データに基づいて学習済みモデルの更新が行われ、更新情報に基づき学習済みモデルが更新される。これによれば、実際の走行中に乗員がとった姿勢のデータに基づき、学習済みモデルが更新される。したがって、より多くの教師データを用いて学習済みモデルが更新されることとなり、より正確な姿勢判別が可能となる。
(他の実施形態)
この明細書における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味および範囲内での全ての変更を含むものと解されるべきである。
この明細書における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味および範囲内での全ての変更を含むものと解されるべきである。
姿勢判別制御装置100およびセンタ2は、デジタル回路およびアナログ回路のうち少なくとも一方をプロセッサとして含んで構成される、専用のコンピュータであってもよい。ここで特にデジタル回路とは、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、およびCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを格納したメモリを、備えていてもよい。
上述の実施形態において、ずれ度合算出部130は、基準姿勢からの動きによる特定点の位置変化割合を、ずれ度合として算出するとした。これに代えて、ずれ度合算出部130は、位置変化割合以外の値をずれ度合として算出してもよい。例えば、ずれ度合算出部130は、特定点の位置座標の差分値をずれ度合として算出してもよい(図6参照)。
1 車両、 2a プロセッサ、 3 姿勢判別システム、 11 プロセッサ、 110 特定点情報取得部、 130 ずれ度合算出部、 140 判別部、 150 アプリケーション選択部(意図推定部)、 170 更新部、 210 教師データ取得部。
Claims (12)
- 車両(1)に搭乗した乗員の姿勢を判別する姿勢判別システムであって、
前記乗員の人体における特定点に関して位置情報を取得する特定点情報取得部(110)と、
前記乗員の基準姿勢における前記特定点に対して、前記乗員の判別対象姿勢における前記特定点が前記基準姿勢からの動きによりずれたずれ度合を算出するずれ度合算出部(130)と、
複数の姿勢種類のうち前記判別対象姿勢の分類される前記姿勢種類を前記ずれ度合の入力に対して出力するように学習された学習済みモデルに、前記ずれ度合算出部にて算出された前記ずれ度合を入力することにより、前記判別対象姿勢の前記姿勢種類を判別する判別部(140)と、
を備える姿勢判別システム。 - 前記ずれ度合は、前記乗員の顔部に設定された前記特定点の前記ずれ度合を含む請求項1に記載の姿勢判別システム。
- 前記ずれ度合は、前記顔部の中央に設定された前記特定点の前記ずれ度合を含む請求項2に記載の姿勢判別システム。
- 前記ずれ度合は、前記乗員の腕部に設定された前記特定点の前記ずれ度合を含む請求項1から請求項3のいずれか1項に記載の姿勢判別システム。
- 前記判別部は、前記基準姿勢に対して前屈みとなる前屈み姿勢を、前記姿勢種類に含み、
前記判別部にて前記判別対象姿勢が前記前屈み姿勢に分類された場合には、前方の走行環境を確認する意図を前記乗員が持っていると推定する意図推定部(150)を、さらに備える請求項1から請求項4のいずれか1項に記載の姿勢判別システム。 - 前記判別部は、前記基準姿勢に対して前記乗員が顔部に手をかざすかざし姿勢を、前記姿勢種類に含み、
前記判別部にて前記判別対象姿勢が前記かざし姿勢に分類された場合には、日差しを遮る意図を前記乗員が持っていると推定する意図推定部(150)を、さらに備える請求項1から請求項4のいずれか1項に記載の姿勢判別システム。 - 前記ずれ度合と、前記判別対象姿勢の前記姿勢種類とを教師データとして取得する教師データ取得部(210)と、
前記教師データに基づいた学習を実行して前記学習済みモデルの更新を行う更新部(170)と、
をさらに備える請求項1から請求項6のいずれか1項に記載の姿勢判別システム。 - プロセッサ(11)により実行され、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法であって、
前記乗員の人体の特定点に関する位置情報を取得し(S105)、
前記乗員の基準姿勢における前記特定点に対して、前記乗員の判別対象姿勢における前記特定点が前記基準姿勢からの動きによりずれたずれ度合を算出し(S106)、
前記ずれ度合の入力に対して複数の姿勢種類のうち前記判別対象姿勢の分類される前記姿勢種類を出力するように学習された学習済みモデルに、算出した前記ずれ度合を入力し、前記判別対象姿勢の分類される前記姿勢種類を出力させる(S107)、
ことを含む姿勢判別方法。 - プロセッサ(11)によって実行され、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを生成する学習済みモデル生成方法であって、
前記乗員の基準姿勢における特定点に対して、前記乗員の判別対象姿勢における前記特定点が前記基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち前記判別対象姿勢の分類される前記姿勢種類と、を含む教師データを取得し(S150)、
前記教師データに基づき、前記ずれ度合の入力に対して、前記判別対象姿勢の分類される前記姿勢種類を出力する前記学習済みモデルを生成する(S151)、
ことを含む学習済みモデル生成方法。 - 車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを生成させるために記憶媒体に格納され、プロセッサ(11)に実行させる命令を含む学習済みモデル生成プログラムであって、
前記命令は、
前記乗員の基準姿勢における特定点に対して、前記乗員の判別対象姿勢における前記特定点が前記基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち前記判別対象姿勢の分類される前記姿勢種類と、を含む教師データを取得させ(S150)、
前記教師データに基づき、前記ずれ度合の入力に対して、前記判別対象姿勢の分類される前記姿勢種類を出力する前記学習済みモデルを生成させる(S151)、
ことを含む学習済みモデル生成プログラム。 - プロセッサ(2a)によって実行され、車両(1)に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを更新する学習済みモデル更新方法であって、
前記乗員の基準姿勢における特定点に対して、前記乗員の判別対象姿勢における前記特定点が前記基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち前記判別対象姿勢の分類される前記姿勢種類と、を含む教師データを取得し(S160)、
前記教師データに基づき、前記ずれ度合の入力に対して、前記判別対象姿勢の分類される前記姿勢種類を出力する前記学習済みモデルを更新する(S161)、
ことを含む学習済みモデル更新方法。 - 車両に搭乗した乗員の姿勢を判別する姿勢判別方法に用いられる学習済みモデルを更新させるために記憶媒体に格納され、プロセッサ(2a)に実行させる命令を含む学習済みモデル更新プログラムであって、
前記命令は、
前記乗員の基準姿勢における特定点に対して、前記乗員の判別対象姿勢における前記特定点が前記基準姿勢からの動きによりずれたずれ度合と、複数の姿勢種類のうち前記判別対象姿勢の分類される前記姿勢種類と、を含む教師データを取得させ(S160)、
前記教師データに基づき、前記ずれ度合の入力に対して、前記判別対象姿勢の分類される前記姿勢種類を出力する前記学習済みモデルを更新させる(S161)、
ことを含む学習済みモデル更新プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146669A JP2021026710A (ja) | 2019-08-08 | 2019-08-08 | 姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146669A JP2021026710A (ja) | 2019-08-08 | 2019-08-08 | 姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021026710A true JP2021026710A (ja) | 2021-02-22 |
Family
ID=74662394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019146669A Pending JP2021026710A (ja) | 2019-08-08 | 2019-08-08 | 姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021026710A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113487845A (zh) * | 2021-06-25 | 2021-10-08 | 中国科学院重庆绿色智能技术研究院 | 一种人工智能学习系统及姿势纠正方法 |
WO2024127672A1 (ja) * | 2022-12-16 | 2024-06-20 | 三菱電機株式会社 | 推論装置および推論方法 |
WO2024127671A1 (ja) * | 2022-12-16 | 2024-06-20 | 三菱電機株式会社 | 推論装置および推論方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000113398A (ja) * | 1998-10-09 | 2000-04-21 | Honda Motor Co Ltd | 車両用表示装置 |
WO2017022852A1 (ja) * | 2015-08-06 | 2017-02-09 | 株式会社ニコン | 電子制御装置、及び電子制御プログラム |
JP2017134777A (ja) * | 2016-01-29 | 2017-08-03 | 富士通株式会社 | 動作判定プログラム、動作判定方法及び制御装置 |
JP2017219885A (ja) * | 2016-06-02 | 2017-12-14 | 株式会社Subaru | 乗員状態監視装置 |
JP2019088522A (ja) * | 2017-11-15 | 2019-06-13 | オムロン株式会社 | 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム |
-
2019
- 2019-08-08 JP JP2019146669A patent/JP2021026710A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000113398A (ja) * | 1998-10-09 | 2000-04-21 | Honda Motor Co Ltd | 車両用表示装置 |
WO2017022852A1 (ja) * | 2015-08-06 | 2017-02-09 | 株式会社ニコン | 電子制御装置、及び電子制御プログラム |
JP2017134777A (ja) * | 2016-01-29 | 2017-08-03 | 富士通株式会社 | 動作判定プログラム、動作判定方法及び制御装置 |
JP2017219885A (ja) * | 2016-06-02 | 2017-12-14 | 株式会社Subaru | 乗員状態監視装置 |
JP2019088522A (ja) * | 2017-11-15 | 2019-06-13 | オムロン株式会社 | 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113487845A (zh) * | 2021-06-25 | 2021-10-08 | 中国科学院重庆绿色智能技术研究院 | 一种人工智能学习系统及姿势纠正方法 |
WO2024127672A1 (ja) * | 2022-12-16 | 2024-06-20 | 三菱電機株式会社 | 推論装置および推論方法 |
WO2024127671A1 (ja) * | 2022-12-16 | 2024-06-20 | 三菱電機株式会社 | 推論装置および推論方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10089542B1 (en) | Apparatuses, systems and methods for acquiring images of occupants inside a vehicle | |
CN109891472B (zh) | 车辆控制系统、车辆控制方法及存储介质 | |
JP7405072B2 (ja) | 移動制御システム、移動制御方法、及びプログラム | |
CN108139202B (zh) | 图像处理装置、图像处理方法和程序 | |
CN110191833B (zh) | 车辆控制系统、车辆控制方法及存储介质 | |
CN110023168B (zh) | 车辆控制系统、车辆控制方法及车辆控制程序 | |
US11450026B2 (en) | Information processing apparatus, information processing method, and mobile object | |
JPWO2018221453A1 (ja) | 出力装置、制御方法、プログラム及び記憶媒体 | |
JP7466396B2 (ja) | 車両制御装置 | |
WO2017057055A1 (ja) | 情報処理装置、情報端末、及び、情報処理方法 | |
CN108028883B (zh) | 图像处理装置和图像处理方法 | |
US11915452B2 (en) | Information processing device and information processing method | |
JP2021026710A (ja) | 姿勢判別システム、姿勢判別方法、学習済みモデル生成方法、学習済みモデル生成プログラム、学習済みモデル更新方法、および学習済みモデル更新プログラム | |
WO2019082669A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
CN113264047A (zh) | 车辆控制装置及存储车辆控制用程序的非易失性存储介质 | |
CN109890662B (zh) | 车辆控制系统、车辆控制方法及存储介质 | |
CN113950703B (zh) | 确定外参矩阵是否准确的方法、装置及数据处理系统 | |
JPWO2019155719A1 (ja) | キャリブレーション装置とキャリブレーション方法およびプログラム | |
CN108688520A (zh) | 车辆控制系统、车辆控制方法以及存储介质 | |
WO2019131116A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
CN112534297A (zh) | 信息处理设备和信息处理方法、计算机程序、信息处理系统以及移动设备 | |
CN110740914A (zh) | 车辆控制系统、车辆控制方法及程序 | |
US20220253065A1 (en) | Information processing apparatus, information processing method, and information processing program | |
US20210239853A1 (en) | System and method for vehicle path estimation using vehicular communication | |
US20200309963A1 (en) | Mobile object, positioning system, positioning program, and positioning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230523 |