JP2018131110A - 推定装置、推定方法、及び推定プログラム - Google Patents

推定装置、推定方法、及び推定プログラム Download PDF

Info

Publication number
JP2018131110A
JP2018131110A JP2017027230A JP2017027230A JP2018131110A JP 2018131110 A JP2018131110 A JP 2018131110A JP 2017027230 A JP2017027230 A JP 2017027230A JP 2017027230 A JP2017027230 A JP 2017027230A JP 2018131110 A JP2018131110 A JP 2018131110A
Authority
JP
Japan
Prior art keywords
estimation
skeleton position
likelihood
equipment
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017027230A
Other languages
English (en)
Inventor
川口 京子
Kyoko Kawaguchi
京子 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017027230A priority Critical patent/JP2018131110A/ja
Priority to US15/872,015 priority patent/US20180232903A1/en
Publication of JP2018131110A publication Critical patent/JP2018131110A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Abstract

【課題】乗員の状態検知等における精度を向上できる推定装置、学習装置、推定方法、及び推定プログラムを提供する。【解決手段】推定装置は、車室内における乗員の骨格位置を推定する推定装置であって、機械学習により構築された推定モデルを記憶する記憶部と、車室内の少なくとも1つの装備を含む画像を入力し、推定モデルを用いて乗員の特定部位の骨格位置、及び、装備と特定部位との位置関係を推定する推定部と、推定された位置関係に基づいて、骨格位置を示す骨格位置情報の尤度を算出する尤度算出部と、少なくとも骨格位置情報を出力する出力部と、を備える。【選択図】図3

Description

本発明は、車両等の車室内における乗員の骨格位置を推定する推定装置、推定方法、及び推定プログラムに関する。
近年、移動体(例えば、自動車等の車両)内における乗員の状態(動作やジェスチャー)を検知し、検知結果に基づいて乗員にとって有用な情報を提供する技術が開発されている(例えば、特許文献1、2)。
乗員の状態を検知する技術としては、例えば、車室内に設置された車載カメラから得られる画像に基づいて、乗員の特定部位の骨格位置を推定する推定装置がある。骨格位置は、例えば、機械学習により構築された推定モデル(アルゴリズム)を利用して、推定される。特に、ディープラーニングにより構築された推定モデルは、骨格位置の推定精度が高く、好適である。ディープラーニングとは、ニューラルネットワークを利用した機械学習である。
図1は、従来の推定装置5の一例を示す図である。図1に示すように、推定装置5は、推定モデルMを用いて、車載カメラ20から入力された画像DIに含まれる乗員の特定部位(例えば、手、肩など)の骨格位置を推定し、骨格位置情報DO1を出力する骨格位置推定部51を備える。推定モデルMは、入力(問題)となる画像に、出力(解答)となる骨格位置が関連付けられた訓練データ(または、教師データともいう)を用いた機械学習により構築されるモデルである。骨格位置情報は、入力画像DIにおける特定部位の骨格位置を示す座標(x,y)で与えられる。
特開2014−221636号公報 特開2014−179097号公報
ところで、車室内の装備の中には、乗員の特定部位に類似する形状を有するものがある。例えば、シートの外縁やドアの凹凸は、乗員の腕や手に似通っており、画像上で区別しづらい。この場合、推定モデルを用いた推定結果が誤った骨格位置を示す虞がある。その結果、乗員の状態は、誤推定された骨格位置に基づいて検知されることになり、正確な検知結果が得られなくなる。
本発明の目的は、乗員の状態検知等の精度を向上できる推定装置、推定方法、及び推定プログラムを提供することである。
本発明に係る推定装置は、
車室内における乗員の骨格位置を推定する推定装置であって、
機械学習により構築されたモデルを記憶する記憶部と、
前記車室内の少なくとも1つの装備を含む画像を入力し、前記モデルを用いて前記乗員の特定部位の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する推定部と、
前記推定された位置関係に基づいて、前記骨格位置を示す骨格位置情報の尤度を算出する尤度算出部と、
少なくとも前記骨格位置情報を出力する出力部と、を備える。
本発明に係る推定方法は、
車室内における乗員の骨格位置を推定する推定方法であって、
前記車室内の少なくとも1つの装備を含む画像を取得する第1工程と、
前記第1工程で取得した画像を入力し、記憶部に記憶されたモデルを用いて前記乗員の特定部位の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する第2工程と、
前記推定された位置関係に基づいて、前記骨格位置を示す骨格位置情報の尤度を算出する第3工程と、
少なくとも前記骨格位置情報を出力する第4工程と、を含む。
本発明に係る推定プログラムは、
車室内における乗員の骨格位置を推定する推定装置のコンピューターに、
前記車室内の少なくとも1つの装備を含む画像を取得する第1処理と、
前記第1工程で取得した画像を入力し、記憶部に記憶されたモデルを用いて前記乗員の特定部位の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する第2処理と、
前記推定された位置関係に基づいて、前記骨格位置を示す骨格位置情報の尤度を算出する第3処理と、
少なくとも前記骨格位置情報を出力する第4処理と、を実行させる。
本発明によれば、乗員の状態検知等の精度を向上することができる。
従来の推定装置の一例を示す図である。 図2A、図2Bは、従来の推定装置による骨格位置の尤度を判断する手法の一例を示す図である。 本発明の一実施の形態に係る推定装置を示す図である。 推定モデルを構築するための学習装置の一例を示す図である。 学習装置の処理部が実行する学習処理の一例を示すフローチャートである。 推定装置の処理部が実行する推定処理の一例を示すフローチャートである。 推定結果に基づく尤度の算出手法の一例を示す図である。 推定結果に基づく尤度の算出手法の他の一例を示す図である。 推定された特定部位の骨格位置情報と、それぞれの装備の装備情報とに基づく位置関係の判定結果の一例を示す図である。 図10A、図10Bは、推定モデルにより特定部位と装備との位置関係を推定した結果と、骨格位置情報と装備情報に基づいて特定部位と装備との位置関係を判定した結果の一例を示す図である。
機械学習により構築された推定モデルを用いて推定された乗員の特定部位の骨格位置に基づいて乗員の状態を検知する場合、尤度の低い推定結果(骨格位置情報)を排除し、尤度の高い推定結果のみを利用して乗員の状態を検知することが好ましい。しかしながら、推定モデルを用いて骨格位置を推定する場合、1フレームの画像について、一番もっともらしい値が推定結果として出力される。つまり、従来の推定装置では、推定結果(骨格位置情報)の尤度は、常に100%である。そのため、乗員の状態検知において、推定結果の尤度に基づいて、推定結果の利用可否を判断することは困難である。
一方で、複数フレームの画像に対する推定結果に基づいて、推定対象フレームの推定結果の尤度を算出することは可能である。例えば、図2A、図2Bに示すように、推定対象フレームの推定結果と前後のフレームの推定結果(図2A、図2Bでは前後3フレーム)とを比較して、推定結果がほぼ一致する場合に尤度「高」(推定結果が正しい確率が高い)と判断し(図2Aのケース)、推定結果が不安定である場合に尤度「低」(言い換えれば推定結果が間違っている確率が高い、図2Bのケース)と判断することができる。
しかしながら、図2A、図2Bに示すように、推定対象フレームの後のフレームの推定結果を利用して尤度を算出する場合、当該後のフレームの推定結果を待つ分だけ尤度の算出が遅延してしまう。そこで、発明者は、新たな尤度の算出方法を見出し、その方法によって算出された尤度が高い推定結果を用いて乗員の状態を検知する発明を考案した。
以下、本発明の実施の形態を、図面を参照して詳細に説明する。
図3は、本発明の一実施の形態に係る推定装置1を示す図である。
推定装置1は、車両に搭載され、車載カメラ20によって撮像された画像DIに基づいて、当該画像DIに含まれる車室内の乗員の特定部位の骨格位置を推定するとともに、車室内の装備と乗員の特定部位との位置関係を推定する。推定された位置関係は、推定された骨格位置の尤度を判断(あるいは算出)する際に利用される。
車載カメラ20は、例えば、車室内に設置された赤外線カメラである。車載カメラ20は、着座している乗員及びその周辺の装備を含む領域を撮像する。推定装置1では、乗員の周辺装備のうち、乗員の特定部位と類似する形状を有する装備、すなわち、乗員の特定部位と画像上での区別がつきにくい装備について、特定部位との位置関係が推定される。例えば、乗員の特定部位が「手」である場合、「ドア」、「ステアリング」、「シートベルト」などの装備と、「手」との位置関係が推定される。
本実施の形態では、推定装置1が、乗員の「右手」の骨格位置を推定する場合に、「右手」と「ドア」の位置関係、「右手」と「ステアリング」の位置関係、及び「右手」と「シートベルト」の位置関係についての推定結果を利用して、推定された骨格位置の尤度を判断する場合について説明する。
図3に示すように、推定装置1は、処理部11及び記憶部12等を備える。
処理部11は、演算/制御装置としてのCPU111(Central Processing Unit)、主記憶装置としてのROM112(Read Only Memory)及びRAM113(Random Access Memory)等を備える。ROM112には、BIOS(Basic Input Output System)と呼ばれる基本プログラムや基本的な設定データが記憶される。CPU111は、ROM112又は記憶部12から処理内容に応じたプログラムを読み出してRAM113に展開し、展開したプログラムを実行することにより、所定の処理を実行する。
処理部11は、例えば、推定プログラムを実行することにより、画像入力部11A、推定部11B、尤度算出部11C及び推定結果出力部11Dとして機能する。具体的には、処理部11は、車両の装備(ここでは、例えば、ドア、ステアリング、シートベルト、バックミラー、サンシェイド、センターパネル、カーナビ、エアコン、シフトレバー、センターボックス、ダッシュボード、アームレスト、シート)を含む画像を入力として、推定モデルMを用いて乗員の骨格位置(ここでは、右手の骨格位置)を推定するとともに、装備と乗員の特定部位との位置関係を推定し、推定結果を出力する。画像入力部11A、推定部11、尤度算出部11C及び推定結果出力部11Dの機能については、図6のフローチャートに従って詳述する。
記憶部12は、例えばHDD(Hard Disk Drive)、又はSSD(Solid State Drive)等の補助記憶装置である。記憶部12は、CD(Compact Disc)、DVD(Digital versatile Disc)等の光ディスク、MO((Magneto-Optical disk)等の光磁気ディスクを駆動して情報を読み書きするディスクドライブであってもよい。また例えば、記憶部12は、USBメモリ、SDカード等のメモリカードであってもよい。
記憶部12は、例えば、オペーレーティングシステム(OS)、推定プログラム及び推定モデルMを記憶する。推定プログラムは、ROM112に記憶されてもよい。推定プログラムは、例えば、当該プログラムが格納されたコンピューター読取可能な可搬型記憶媒体(光ディスク、光磁気ディスク、及びメモリカードを含む)を介して提供される。また例えば、推定プログラムは、当該推定プログラムを保有するサーバ装置から、ネットワークを介してダウンロードにより提供されてもよい。推定モデルMも同様に、ROM112に記憶されてもよいし、可搬型記憶媒体又はネットワークを介して提供されてもよい。
推定モデルMは、機械学習により構築されたアルゴリズムであり、装備を含む画像の入力に対して、乗員の特定部位の骨格位置を示す骨格位置情報と、装備と特定部位との位置関係を示す存在情報と、を出力する。推定モデルMは、ニューラルネットワークを利用したディープラーニングにより構築されることが好ましい。ディープラーニングにより構築された推定モデルMは、画像認識性能が高く、装備と特定部位との位置関係を高精度で推定することができる。推定モデルMは、例えば、図4に示す学習装置2によって構築される。
図4は、推定モデルMを構築するための学習装置2の一例を示す図である。
図4に示すように、学習装置2は、処理部21及び記憶部22を備える。これらの具体的な構成のうち、推定装置1の処理部11及び記憶部12と共通する部分については、ここでの説明を省略する。
処理部21は、例えば、学習プログラムを実行することにより、訓練データ入力部21A及び学習部21Bとして機能する。具体的には、処理部21は、訓練データTによる教師あり学習を行い、推定モデルMの構築を行う。
訓練データTは、車両の装備(ここでは、ドア、ステアリング、シートベルト)と乗員の特定部位(ここでは、右手)とを含む画像T1、画像T1における乗員の特定部位の骨格位置情報T2、及び、装備と特定部位の位置関係を示す存在情報T3を有する。画像T1に、骨格位置情報T2及び存在情報T3が関連付けられており、これらが1セットで訓練データTを構成する。画像T1が推定モデルMの入力であり、骨格位置情報T2及び存在情報T3が推定モデルMの出力である。なお、画像T1は、装備だけの画像(乗員の特定部位を含まない画像)を含んでもよい。
骨格位置情報T2は、画像T1における特定部位の骨格位置を示す座標(x,y)で与えられる。
存在情報T3は、True/Falseで与えられる。具体的には、存在情報T3が「True」である場合、装備と手が重なっている(触れている)ことを示し、存在情報T3が「False」である場合、装備と手が離れていることを示す。ここでは、存在情報T3は、右手とドアの位置関係を示す第1の装備別存在情報、右手とシートの位置関係を示す第2の装備別存在情報、及び右手とシートベルトの位置関係を示す第3の装備別存在情報を含む。
ここで、乗員の特定部位(ここでは、右手)は、異なる2つの装備(ここでは、ドアとステアリングなど、設置位置が明らかに1つの手の大きさよりも離れている2つの装備)に同時に触れることはない。したがって、存在情報T3においては、第1〜第3の装備別存在情報のうちの1つが「True」に設定されている場合、他の2つは「False」に設定される。
なお、訓練データTの画像T1は、車載カメラ20による撮像画像の全体に対応する全体画像であってもよいし、全体画像から切り出した一部に対応する部分画像であってもよい。推定装置1において、車載カメラ20の撮像画像をそのまま推定モデルMの入力として用いる場合、訓練データTの画像T1として全体画像が準備され、骨格位置情報T2は全体画像上の座標で与えられる。また、推定装置1において、車載カメラ20の撮像画像を切り出して推定モデルMの入力として用いる場合、訓練データTの画像T1として部分画像が準備され、骨格位置情報T2は部分画像上の座標で与えられる。つまり、学習時の訓練データTの画像T1と推定時の推定モデルMの入力としての画像とは、処理対象範囲(画像サイズと位置)が同じであることが望ましい。
訓練データTの画像T1は、車載カメラ20によって撮像されると想定される様々なパターンの画像を含む。すなわち、訓練データTの画像T1として、乗員の状態(特定部位の位置)が異なる膨大な画像が用意され、それぞれに対して、骨格位置情報T2と存在情報T3が関連付けられる。画像T1として、できるだけ多くのパターンを用意することで、推定モデルMによる推定精度を高めることができる。
図5は、学習装置2の処理部21が実行する学習処理の一例を示すフローチャートである。この処理は、CPU211が学習プログラムを実行することにより実現される。
ステップS101において、処理部21は、1セットの訓練データTを取得する(訓練データ入力部21Aとしての処理)。訓練データTは、画像T1、骨格位置情報T2及び存在情報T3を含む。
ステップS102において、処理部21は、取得した訓練データTに基づいて、推定モデルMを最適化する(学習部21Bとしての処理)。具体的には、処理部21は、記憶部22から現在の推定モデルMを読み出して、画像T1を推定モデルMに入力したときの出力と、当該画像T1に関連付けられた骨格位置情報T2及び存在情報T3の値が等しくなるように、推定モデルMを修正(再構築)する。例えば、ニューラルネットワークを利用したディープラーニングにおいては、ニューラルネットワークを構成するノード間の結合強度(パラメーター)が修正される。
ステップS103において、処理部21は、未学習の訓練データTがあるか否かを判定する。未学習の訓練データTがある場合(ステップS103で“YES”)、ステップS101の処理に移行する。これにより、推定モデルMの学習が繰り返し行われることになり、乗員の骨格位置、及び特定骨格位置と装備との位置関係を推定するための推定モデルMとしての確度が向上する。一方、未学習の訓練データTがない場合(ステップS103で“NO”)、ステップS104の処理に移行する。
ステップS104において、処理部21は、学習が十分に行われたか否かを判定する。例えば、処理部21は、損失関数として、二乗誤差の平均値を用い、この値があらかじめ設定した閾値以下である場合に十分に学習が行われたと判断する。具体的には、処理部21は、ステップS102で用いた、画像T1を推定モデルMに入力したときの出力と、当該画像T1に関連付けられた骨格位置情報T2及び存在情報T3の二乗誤差の平均値を算出し、これが、あらかじめ設定した閾値以下かを判断する。
学習が十分であると判断された場合(ステップS104で“YES”)、ステップS105の処理に移行する。一方、学習が十分でないと判断された場合(ステップS104で“NO”)には、ステップSS101以降の処理を繰り返す。
ステップS105において、処理部21は、学習結果に基づいて、記憶部22に記憶されている推定モデルMを更新する。
このように、学習装置2は、車室内における乗員の骨格位置を推定するために用いられる推定モデルMを構築する学習装置であって、車室内の少なくとも1つの装備(例えば、ドア、ステアリング、シートベルト)を含む画像T1に、乗員の特定部位(例えば、右手)の骨格位置を示す骨格位置情報T2(第1の情報)と、装備と特定部位との位置関係を示す存在情報T3(第2の情報)と、が関連付けられた訓練データTを取得する訓練データ入力部21A(入力部)と、画像T1を推定モデルMに入力したときに、当該画像T1に関連付けられた骨格位置情報T2及び存在情報T3が出力されるように、推定モデルMを構築する学習部21Bと、を備える。
学習装置2によって構築された推定モデルMを用いることで、推定装置1は、車載カメラ20からの画像に基づいて、乗員の特定部位(例えば、右手)の骨格位置とともに、装備と特定部位との位置関係を推定することができる。
図6は、推定装置1の処理部11が実行する推定処理の一例を示すフローチャートである。この処理は、CPU111が推定プログラムを実行することにより実現される。なお、車載カメラ20は、処理部11に対して、1フレーム単位で画像DIを連続的に送出している。
ステップS201において、処理部11は、車載カメラ20から画像DIを取得する(画像入力部11Aとしての処理)。
ステップS202において、処理部11は、画像DIを入力として、推定モデルMを用いて乗員の特定部位の骨格位置、及び装備と特定部位との位置関係の推定を実行する(推定部11Bとしての処理)。推定部11Bによる推定結果として、特定部位の骨格位置を示す骨格位置情報と、特定部位と装備との位置関係を示す存在情報が得られる。ここでは、存在情報は、右手とドアの位置関係を示す第1の装備別存在情報、右手とシートの位置関係を示す第2の装備別存在情報、及び右手とシートベルトの位置関係を示す第3の装備別存在情報を含む。
ステップS203において、処理部11は、存在情報を利用して、推定された骨格位置の尤度を算出する(尤度算出部11Cとしての処理)。
例えば、処理部11は、複数の装備別存在情報(ここでは、3つ)の推定結果を比較することにより、骨格位置情報の尤度を算出する。複数の装備別存在情報の推定結果が矛盾しない場合は、推定された骨格位置情報の尤度が「高」(例えば、尤度1)に設定され、矛盾する場合は、尤度が「低」(例えば、尤度0)に設定される。
図7に示すように、3つの装備別存在情報推定結果のうち0又は1つが「True」である場合(推定結果1、2参照)は推定結果に矛盾はないが、2つ又は3つが「True」となっている場合(推定結果3、4参照)は推定結果が矛盾する(少なくとも1つの推定結果は間違っている)ことになる。装備別存在情報の推定結果が矛盾する場合は、画像DIにおける特定部位の識別が困難であるということになり、推定された骨格位置も正確でない可能性があるので、尤度が「低」に設定される。このとき、装備別識別情報の推定結果の矛盾の程度(「True」となっている数)に応じて、尤度をさらに細かく設定してもよい。例えば、図7において、推定結果4は、推定結果3よりも矛盾の程度が大きいので、推定結果3よりも尤度が低く設定される。
このように、複数の装備別存在情報(ここでは、3つ)の推定結果を比較することにより、推定された骨格位置情報の尤度を容易に判断することができる。
さらに、装備別存在情報の推定結果に矛盾が生じている場合(図7の推定結果3、4参照)、3つの装備別存在情報の推定結果の各々と、装備の位置を示す装備情報及び骨格位置情報に基づいて判定される位置関係と、を比較することにより、骨格位置情報の尤度を算出するようにしてもよい。
装備情報は、予め設定され、例えば、ROM112に記憶される。装備情報は、それぞれの装備(ここでは、ドア、ステアリング、シートベルト)が画像上で占める領域(例えば、4点の座標)で与えられる。図8に示すように、ドアの領域A1、ステアリングの領域A2及びシートベルトの領域A3は重複しない。
なお、図8は、それぞれの装備が占める領域A1〜A3が重複していないことを示すためのものであり、実際の画像における装備の位置を示しているわけではない。また、画像として、距離画像を用いる場合には、装備情報に、画像上のx座標、y座標の情報だけでなく、距離情報を含めてもよい。
図8に示すように、推定モデルMにより推定された右手の骨格位置Pが領域A1に含まれていれば右手がドアに触れていることになり、右手とドアの位置関係は「True」と判定される。このとき、右手とステアリング及びシートベルトとの位置関係は、いずれも「False」と判定される。つまり、図9に示すように、推定された特定部位の骨格位置情報と、それぞれの装備の装備情報とに基づいて判定される位置関係においては、すべてが「False」(判定結果1)又は1つだけ「True」(判定結果2〜4)となる。
図10A、図10Bは、推定モデルMにより特定部位と装備との位置関係を推定した結果と、骨格位置情報と装備情報に基づいて特定部位と装備との位置関係を判定した結果の一例を示す図である。図10A、図10Bでは、右手とドアの位置関係R1、右手とステアリングの位置関係R2及び右手とシートベルトの位置関係R3(R1、R2、R3=True/False)を、[R1,R2,R3]として表している。
例えば、推定モデルMによる推定結果として図7の推定結果3が得られたのに対して、骨格位置情報と装備情報に基づく判定結果が図9の判定結果2であった場合、図10Aに示すように、右手とステアリングとの位置関係R2についての結果が矛盾する。また例えば、推定モデルMによる推定結果として図7の推定結果3が得られたのに対して、骨格位置情報と装備情報に基づく判定結果が図9の判定結果1であった場合、図10Bに示すように、右手とドアとの位置関係R1についての結果及び右手とステアリングとの位置関係R2についての結果が矛盾する。
装備別存在情報の推定結果に矛盾が生じている場合(図7の推定結果3、4参照)、推定モデルMによる推定結果と、骨格位置情報と装備情報に基づく判定結果とを比較すると、少なくとも1つ(最大3つ)の矛盾がある。この矛盾数により、尤度をさらに細かく設定することができる。
図6に戻り、ステップS204において、処理部11は、推定結果として、乗員の特定部位の骨格位置を示す骨格位置情報DO1とともに、算出された尤度を示す尤度情報DO2を出力する(推定結果出力部11Cとしての処理)。以上の処理が、1フレームの画像DIごとに行われる。推定装置1から推定結果として出力される骨格位置情報DO1及び尤度情報DO2は、例えば、推定装置1の後段に設けられる状態検知装置(アプリケーションプログラムを含む、図示略)で用いられる。
状態検知装置は、乗員の特定部位の骨格位置に応じて適当な処理を行う。例えば、推定結果から、右手がステアリングを把持していない判断できる場合に、ステアリングを把持するように警告を行うことが考えられる。このとき、状態検知装置は、所定の値よりも尤度が高い骨格位置情報だけを選択して利用することにより、検知精度を向上することができ、適切な処理を行うことができる。
なお、上記ステップS204において、処理部11は、推定結果として、乗員の特定部位の骨格位置を示す骨格位置情報DO1とともに、算出された尤度を示す尤度情報DO2を出力するとしたが、処理部11が所定の値よりも尤度が高い骨格位置情報のみを出力するようにしてもよい。この場合、状態検知装置は、処理部11から出力された骨格位置情報に応じて適当な処理を行えばよく、状態検知装置が尤度の高い骨格位置情報を選択する必要はない。
このように、推定装置1は、車室内における乗員の骨格位置を推定する推定装置であって、機械学習により構築された推定モデルM(モデル)を記憶する記憶部12と、車室内の少なくとも1つの装備(例えば、ドア、ステアリング、シートベルト)を含む画像DIを入力し、推定モデルMを用いて乗員の特定部位(例えば、右手)の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する推定部11Bと、推定された位置関係に基づいて、骨格位置を示す骨格位置情報DO1の尤度を算出する尤度算出部11Cと、少なくとも骨格位置情報DO1を出力する推定結果出力部11D(出力部)と、を備える。
また、推定装置1において行われる推定方法は、車室内における乗員の骨格位置を推定する推定方法であって、車室内の少なくとも1つの装備(例えば、ドア、ステアリング、シートベルト)を含む画像DIを取得する第1工程(図6のステップS201)と、第1工程で取得した画像DIを入力し、記憶部12に記憶された推定モデルM(モデル)を用いて乗員の特定部位(例えば、右手)の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する第2工程(図6のステップS202)と、推定された位置関係に基づいて、骨格位置を示す骨格位置情報DO1の尤度を算出する第3工程(図6のステップS203)と、少なくとも骨格位置情報DO1を出力する第4工程(図6のステップS204)と、を含む。
また、推定装置1において実行されるプログラムは、車室内における乗員の骨格位置を推定する推定装置1の処理部11(コンピューター)に、車室内の少なくとも1つの装備(例えば、ドア、ステアリング、シートベルト)を含む画像DIを取得する第1処理(図6のステップS201)と、第1工程で取得した画像DIを入力し、記憶部12に記憶された推定モデルM(モデル)を用いて乗員の特定部位(例えば、右手)の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する第2処理(図6のステップS202)と、推定された位置関係に基づいて、骨格位置を示す骨格位置情報DO1の尤度を算出する第3処理(図6のステップS203)と、少なくとも骨格位置情報DO1を出力する第4処理(図6のステップS204)と、を実行させる。
推定装置1によれば、乗員の特定部位の骨格位置情報とともに、乗員の状態検知に有用な尤度に関する情報が出力されるので、乗員の状態検知等における精度を向上することができる。また、認識精度向上のための尤度算出を、1フレームの画像に基づいて行うことができる。
以上、本発明者によってなされた発明を実施の形態に基づいて具体的に説明したが、本発明は上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で変更可能である。
例えば、本発明に係る推定装置は、尤度に関する情報として、推定された存在情報をそのまま出力してもよい。この場合、推定装置の後段に設けられる状態検知装置等で、推定された骨格位置情報の尤度判断が行われることになる。
また、推定装置は、骨格位置情報及び尤度に関する情報に基づいて、乗員の状態(姿勢など)を検知する検知部を備え、検知部による検知結果を出力してもよい。すなわち、推定装置は、状態検知装置としての機能を兼ね備えてもよい。
また例えば、推定装置によって骨格位置が推定される特定部位は、実施の形態で説明した「右手」に限定されず、他の部位であってもよい。また、特定部位との位置関係が推定される対象装備は、1つ又は2つであってもよいし、4つ以上であってもよい。
また、推定モデルMは、ディープラーニング以外の機械学習(例えば、ランダムフォレスト)によって構築されてもよい。
実施の形態では、尤度算出方法の一例として、装備別存在情報の推定結果に矛盾が生じている場合(図7の推定結果3、4参照)に、3つの装備別存在情報の推定結果の各々と、装備の位置を示す装備情報及び骨格位置情報に基づいて判定される位置関係と、を比較することにより、骨格位置情報の尤度を算出することについて説明したが、装備別存在情報の推定結果に矛盾がない場合(図7の推定結果1、2参照)に、3つの装備別存在情報の推定結果の各々と、装備の位置を示す装備情報及び骨格位置情報に基づいて判定される位置関係と、を比較することにより、骨格位置情報の尤度を算出してもよい。これにより、尤度をより的確に算出することができる。
また、1つの装備別存在情報の推定結果と、当該装備の位置を示す装備情報及び骨格位置情報に基づいて判定される位置関係と、を比較することにより、骨格位置情報の尤度を算出するようにしてもよい。すなわち、推定モデルMを用いて、少なくとも1つの装備別存在情報が推定されるようになっていれば、骨格位置情報の尤度を算出することができる。
また、学習装置2における学習に用いる訓練データTとして、画像T1及び骨格位置情報T2を用意し、存在情報T3については、学習装置2の処理部21が、骨格位置情報と装備情報とに基づいて生成するようにしてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明は、車両等の車室内における乗員の骨格位置のみならず、特定空間にいる人の骨格位置を推定する推定装置、推定方法、及び推定プログラムに好適である。
1 推定装置
11 処理部
11A 画像入力部
11B 推定部
11C 尤度算出部
11D 推定結果出力部
12 記憶部
2 学習装置
21 処理部
21A 訓練データ入力部
21B 学習部
22 記憶部
M 推定モデル
T 訓練データ

Claims (10)

  1. 車室内における乗員の骨格位置を推定する推定装置であって、
    機械学習により構築されたモデルを記憶する記憶部と、
    前記車室内の少なくとも1つの装備を含む画像を入力し、前記モデルを用いて前記乗員の特定部位の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する推定部と、
    前記推定された位置関係に基づいて、前記骨格位置を示す骨格位置情報の尤度を算出する尤度算出部と、
    少なくとも前記骨格位置情報を出力する出力部と、
    を備える推定装置。
  2. 前記モデルは、ニューラルネットワークを利用したディープラーニングにより構築される、請求項1に記載の推定装置。
  3. 前記出力部は、前記骨格位置情報とともに、前記尤度算出部により算出された尤度を示す尤度情報を出力する、請求項1又は2に記載の推定装置。
  4. 前記出力部は、前記尤度が所定の値よりも高い骨格位置情報を出力する、請求項1又は2に記載の推定装置。
  5. 前記推定部は、前記車室内の複数の装備の各々と前記特定部位との位置関係を示す複数の位置関係を推定し、
    前記尤度算出部は、前記推定された複数の位置関係に基づいて、前記骨格位置情報の尤度を算出する、請求項1乃至3のいずれか一項に記載の推定装置。
  6. 前記尤度算出部は、前記複数の位置関係に矛盾がある場合に、前記複数の位置関係の各々と、前記装備の位置を示す装備位置情報及び前記骨格位置情報に基づいて判定される位置関係と、を比較することにより、前記骨格位置情報の尤度を算出する、請求項5に記載の推定装置。
  7. 前記推定部は、前記車室内の少なくとも1つの装備と前記特定部位との位置関係を示す少なくとも1つの位置関係を推定し、
    前記尤度算出部は、前記位置関係と、前記装備の位置を示す装備情報及び前記骨格位置情報に基づいて判定される位置関係と、を比較することにより、前記骨格位置情報の尤度を算出する、請求項1乃至3のいずれか一項に記載の推定装置。
  8. 前記出力部からの出力に基づいて、前記乗員の状態を検知する検知部を備える、請求項1から5のいずれか一項に記載の推定装置。
  9. 車室内における乗員の骨格位置を推定する推定方法であって、
    前記車室内の少なくとも1つの装備を含む画像を取得する第1工程と、
    前記第1工程で取得した画像を入力し、記憶部に記憶されたモデルを用いて前記乗員の特定部位の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する第2工程と、
    前記推定された位置関係に基づいて、前記骨格位置を示す骨格位置情報の尤度を算出する第3工程と、
    少なくとも前記骨格位置情報を出力する第4工程と、
    を含む推定方法。
  10. 車室内における乗員の骨格位置を推定する推定装置のコンピューターに、
    前記車室内の少なくとも1つの装備を含む画像を取得する第1処理と、
    前記第1処理で取得した画像を入力し、記憶部に記憶されたモデルを用いて前記乗員の特定部位の骨格位置、及び、前記装備と前記特定部位との位置関係を推定する第2処理と、
    前記推定された位置関係に基づいて、前記骨格位置を示す骨格位置情報の尤度を算出する第3処理と、
    少なくとも前記骨格位置情報を出力する第4処理と、
    を実行させる推定プログラム。
JP2017027230A 2017-02-16 2017-02-16 推定装置、推定方法、及び推定プログラム Pending JP2018131110A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017027230A JP2018131110A (ja) 2017-02-16 2017-02-16 推定装置、推定方法、及び推定プログラム
US15/872,015 US20180232903A1 (en) 2017-02-16 2018-01-16 Estimation device, estimation method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017027230A JP2018131110A (ja) 2017-02-16 2017-02-16 推定装置、推定方法、及び推定プログラム

Publications (1)

Publication Number Publication Date
JP2018131110A true JP2018131110A (ja) 2018-08-23

Family

ID=63105338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017027230A Pending JP2018131110A (ja) 2017-02-16 2017-02-16 推定装置、推定方法、及び推定プログラム

Country Status (2)

Country Link
US (1) US20180232903A1 (ja)
JP (1) JP2018131110A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044567A1 (ja) * 2019-09-05 2021-03-11 三菱電機株式会社 操作者判定装置および操作者判定方法
WO2024034417A1 (ja) * 2022-08-10 2024-02-15 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486857B (zh) * 2021-08-03 2023-05-12 云南大学 一种基于YOLOv4的登高安全检测方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
US9725098B2 (en) * 2014-08-11 2017-08-08 Ford Global Technologies, Llc Vehicle driver identification
CN108369643B (zh) * 2016-07-20 2022-05-13 杭州凌感科技有限公司 用于3d手部骨架跟踪的方法和系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044567A1 (ja) * 2019-09-05 2021-03-11 三菱電機株式会社 操作者判定装置および操作者判定方法
JPWO2021044567A1 (ja) * 2019-09-05 2021-03-11
JP7003335B2 (ja) 2019-09-05 2022-01-20 三菱電機株式会社 操作者判定装置および操作者判定方法
WO2024034417A1 (ja) * 2022-08-10 2024-02-15 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
US20180232903A1 (en) 2018-08-16

Similar Documents

Publication Publication Date Title
JP6820533B2 (ja) 推定装置、学習装置、推定方法、及び推定プログラム
CN112590794B (zh) 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置
US10528804B2 (en) Detection device, detection method, and storage medium
JP5444898B2 (ja) 状態検出装置、状態検出方法及びプログラム
JP6443393B2 (ja) 行動認識装置,学習装置,並びに方法およびプログラム
US8055020B2 (en) Method for object tracking
US8040247B2 (en) System for rapid detection of drowsiness in a machine operator
CN110765807B (zh) 驾驶行为分析、处理方法、装置、设备和存储介质
CN104699238B (zh) 用于识别用户的手势以执行车辆的操作的系统和方法
US10147015B2 (en) Image processing device, image processing method, and computer-readable recording medium
WO2013101047A1 (en) Systems, methods, and apparatus for invehicle fiducial mark tracking and interpretation
JP2015076104A (ja) ランダムフォレストモデルを用いた、リアルタイムの多クラス運転者動作認識
US10719133B2 (en) Apparatus and method for determining an intended target
JP2018131110A (ja) 推定装置、推定方法、及び推定プログラム
WO2013128291A2 (en) Method of fusing multiple information sources in image-based gesture recognition system
JP2016200910A (ja) 運転者状態判定装置
CN113408558A (zh) 用于模型验证的方法、装置、设备和介质
US20190294251A1 (en) Gesture-based user interface
Sathyanarayana et al. Automatic driving maneuver recognition and analysis using cost effective portable devices
US20230294628A1 (en) Apparatus for estimating behavior of vehicle occupant and method for the same
JP2012043364A (ja) 物体認識装置
JP2018132873A (ja) 情報処理装置
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
Perrett et al. Visual monitoring of driver and passenger control panel interactions
US11535268B2 (en) Vehicle and control method thereof

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018