JP2017111508A - 情報処理装置、情報処理システム、および、情報処理方法 - Google Patents
情報処理装置、情報処理システム、および、情報処理方法 Download PDFInfo
- Publication number
- JP2017111508A JP2017111508A JP2015243497A JP2015243497A JP2017111508A JP 2017111508 A JP2017111508 A JP 2017111508A JP 2015243497 A JP2015243497 A JP 2015243497A JP 2015243497 A JP2015243497 A JP 2015243497A JP 2017111508 A JP2017111508 A JP 2017111508A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- user
- driver
- processing apparatus
- article
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】運転中の問題につながり得る行為を検知する精度を向上させ、安全運転の可能性を高める情報処理装置を提供する。。
【解決手段】情報処理装置1は、車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知手段と、前記物品の検知結果に基づき前記ユーザへの介入の要否を判定する判定手段と、を備える。例えば、特定部位が手の場合には、物品の操作等を検知できる可能性が高い。したがって、ユーザが運転中のドライバの場合には、本情報処理装置は、運転中の問題につながる可能性のある行為を検知する精度を向上させ、ユーザに安全運転をするように介入することができる。
【選択図】図1
【解決手段】情報処理装置1は、車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知手段と、前記物品の検知結果に基づき前記ユーザへの介入の要否を判定する判定手段と、を備える。例えば、特定部位が手の場合には、物品の操作等を検知できる可能性が高い。したがって、ユーザが運転中のドライバの場合には、本情報処理装置は、運転中の問題につながる可能性のある行為を検知する精度を向上させ、ユーザに安全運転をするように介入することができる。
【選択図】図1
Description
本発明は、車両のユーザの特定部位近傍の物品を検知する技術に関する。
近年、自動車等の車両のユーザ(例えば、ドライバ)の運転時の危険状態に応じて、ドライバに対して警告等の通知を行う技術がある。例えば、運転時に携帯電話、スマートフォン等を操作することは事故につながる危険性がある。そのため、携帯電話、スマートフォン等が運転中に操作されているか否かを検知し、警告する提案がなされている(例えば、特許文献1参照)。
しかしながら、上記従来の技術は、運転中の携帯電話、スマートフォン等の物品の操作等、運転中の問題につながる可能性のある行為を精度よく検知し、ユーザを安全運転に誘導するという配慮がなされてない。本発明は、運転中の問題につながり得る行為を検知する精度を向上させ、安全運転の可能性を高めることである。
開示の技術の一側面は、情報処理装置によって例示される。この情報処理装置は、車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知手段と、前記物品の検知結果に基づき前記ユーザへの介入の要否を判定する判定手段と、を備えることを特徴とする。ここで、例えば、特定部位が手の場合には、物品の操作等を検知できる可能性が高い。したがって、ユーザが運転中のドライバの場合には、本情報処理装置は、運転中の問題につながる可能性のある行為を検知する精度を向上させ、ユーザに安全運転をするように介入することができる。
本情報処理装置によれば、運転中の問題につながり得る行為を検知する精度を向上させ、安全運転の可能性を高めることができる。
以下、図面を参照して、一実施形態に係る情報処理装置について説明する。以下の実施形態の構成は例示であり、本情報処理装置は実施形態の構成には限定されない。
<第1の実施の形態>
<1.構成>
図1は、情報処理システム10の構成を示す図である。情報処理システム10は、情報処理装置1と、測距センサ2と、画像出力装置3および音響出力装置4の通知装置とを主に備える。情報処理システム10は、例えば車両の車室内に設けられるシステムである。
<1.構成>
図1は、情報処理システム10の構成を示す図である。情報処理システム10は、情報処理装置1と、測距センサ2と、画像出力装置3および音響出力装置4の通知装置とを主に備える。情報処理システム10は、例えば車両の車室内に設けられるシステムである。
情報処理装置1は、測距センサ2が検知した対象物の空間上の位置に関する情報(以下、「位置情報」という。)を取得し、この対象物の位置情報に基づき骨格モデルを生成する。ここで、対象物は例えば車両の車室内のドライバである。このように情報処理装置1は、ドライバの人体の特定部位(例えば、頭部や両手等)の位置情報を測距センサ2から取得する。
情報処理装置1は、ドライバの特定部位の位置情報および位置情報から推定される特定部位近傍の光の反射率の差異に基づき、ドライバが携帯電話、あるいは、スマートフォン等を操作しているか否かを判定する。そして情報処理装置1は、ドライバが携帯電話、あるいは、スマートフォン等を操作していると判定した場合には、通知情報を画像出力装置3および音響出力装置4の少なくともいずれかの通知装置に出力する。
測距センサ2は、車両の車室内の対象物の位置情報を検知する。測距センサ2は、例えばLIDAR(Light Detection and Ranging)方式により、対象物の位置情報を検知す
る。LIDAR方式は、レーザ光を対象物に発光し、対象物からの反射光を受光するまでにかかる時間で対象物の位置情報を検知する方式である。測距センサ2は、ユーザおよびユーザ周囲との距離を測定する測距手段の一例である。
る。LIDAR方式は、レーザ光を対象物に発光し、対象物からの反射光を受光するまでにかかる時間で対象物の位置情報を検知する方式である。測距センサ2は、ユーザおよびユーザ周囲との距離を測定する測距手段の一例である。
このような位置情報の検知に用いられる技術としては他には、アクティブステレオ方式、ToF(Time-of-Flight)方式等がある。
アクティブステレオ方式は、レーザ光を対象物に照射し、対象物からの反射光を受光するまでにかかる時間により対象物の位置情報を検知する方式である。ToF方式は、LED等の光源を有する発光部が、対象物に照射光を照射したときから、受光部が対象物からの反射光を受光するまでの時間差により、対象物の位置情報を検知する方式である。測距センサ2は、このような方式の技術により検知した位置情報を情報処理装置1に送信する。測距センサ2は、対象物の位置情報を検知する場合、これらの方式のうちいずれの方式の技術を用いてもよい。
情報処理装置1は、対象物検知部11、ドライバ部位検出部12、運転姿勢判定部13、把持物体検出部14、スマホ/携帯操作判定部15、出力制御部16および、記憶部21を主に備える。情報処理装置1は、図示しないCentral Processing Unit(CPU)、メモリを有し、このメモリに実行可能に展開されたコンピュータプログラムにしたがって、上記情報処理装置1の対象物検知部11、ドライバ部位検出部12、運転姿勢判定部13、把持物体検出部14、スマホ/携帯操作判定部15、出力制御部16等の各部としての処理を実行する。CPUはプロセッサとも呼ばれる。ただし、CPUは、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPUがマルチコア構成であってもよい。上記各部の少なくとも一部の処理がDigital Signal Processor(DSP)、Graphics Processing Unit(GPU)、数値演算プロセッサ、ベクトルプロセッサ、画像処理プロセッサ等の専用プロセッサ、Application Specific Integrated Circuit(ASIC)等によって提供されてもよい。また、上記各部の
少なくとも一部が、Field-Programmable Gate Array(FPGA)等の専用large scale integration(LSI)、その他のデジタル回路であってもよい。また、上記各部の少なくとも一部
にアナログ回路が含まれてもよい。
少なくとも一部が、Field-Programmable Gate Array(FPGA)等の専用large scale integration(LSI)、その他のデジタル回路であってもよい。また、上記各部の少なくとも一部
にアナログ回路が含まれてもよい。
対象物検知部11は、測距センサ2から取得した3次元の位置情報に基づき、車室内の所定の空間領域に存在する対象物の存在の有無を検知する。具体的には、対象物検知部11は、測距センサ2から取得したある対象物に関する複数の位置情報に基づき、所定の空間領域に人体形状を有する物体が存在するか否かを検知する。所定の空間領域は、例えば車室内のドライバシート付近であり、対象物検知部11は人体形状に関する情報と、ドライバシート付近の空間領域で検知された複数の位置情報とのパターンマッチングを行う。人体形状に関する情報は、予め記憶部21に記憶された情報であり、対象物検知部11が検知処理を行う際に記憶部21から読み出す。
対象物検知部11は、例えばドライバシートが存在する領域を含むドライバ領域内に人体形状に適合する位置情報を検知した場合、当該位置情報をドライバ部位検出部12に送信する。対象物検知部11はこのようにして車室内のドライバの存在の有無を検知する。対象物検知部11は、ユーザの画像を取得する対象物検知部の一例である。
ドライバ部位検出部12は、ドライバ検知部11から取得した複数の位置情報に基づき、対象物の骨格モデルを生成する。ここで、位置情報の集まりを「点群」として以下、具体的に説明を行う。
図2から図4を用いて骨格モデルの生成について具体的に説明する。図2は、車両のドライバに関する点群DRにおける骨格モデルFRの正面を示す図である。図3は、図2のドライバが携帯電話、スマートフォン等を操作する姿勢を例示する図である。すなわち、図3(a)は、上記操作時の点群DRにおける骨格モデルFRの左側面を例示する図である。図3(b)は、上記操作時の点群DRにおける骨格モデルFRの右側面を例示する図である。図4は、図2のドライバが携帯電話、スマートフォン等を頭部に近づけて操作する姿勢を例示する図である。すなわち、図4(a)も、点群DRにおける骨格モデルFRの左側面を例示する図である。図4(b)も、点群DRにおける骨格モデルFRの右側面を例示する図である。
ここで、各図中において方向および向きを示す際に、適宜、図中に示す3次元のxyz直交座標を用いる。直交座標のこれらの軸は、ドライバシートSEに着座した状態のドライバに対して相対的に固定される。x軸の方向はドライバの左右方向に沿い、y軸の方向はドライバの前後方向に沿い、z軸の方向はドライバの高さ方向に沿っている。また便宜上、+x方向を右方向、−x方向を左方向、+y方向を前方向、−y方向を後方向、+z方向を上方向、および、−z方向を下方向とする。なお、このような座標系は、測距センサ2が有するローカル座標系に対するワールド座標系であるともいえる。
ドライバ部位検出部12は、対象物検知部11の検知処理により人体形状と適合した点群の重心部分を図2に示す「基準点PB」として設定し、基準点PBから上方向(+z方向)の人体の頭の部位に相当する部分を「頭部点P1」として設定する。なお、基準点PBは人体の喉に相当する部分である。
またドライバ部位検出部12は、基準点PBから左方向(−x方向)の部分を人体の左肩の部位に相当する「左肩点P2」として設定する。ドライバ部位検出部12は、左肩点P2から人体の腕の部位に相当する先端付近の部分を人体の左手の部位に相当する「左手点P4」として設定し、左肩点P2と左手点P4との間における所定の部分を人体の左肘の部位に相当する「左肘点P6」として設定する。
またドライバ部位検出部12は、基準点PBから右方向(+x方向)の部分を人体の右肩の部位に相当する「右肩点P3」として設定する。ドライバ部位検出部12は、右肩点P3から人体の腕の部位に相当する先端付近の部分を人体の右手の部位に相当する「右手点P5」として設定し、右肩点P3と右手点P5との間における所定の部分を人体の右肘の部位に相当する「右肘点P7」として設定する。「左手点P4」と「右手点P5」はユーザの特定部位の位置の一例である。ただし、「頭部点P1」がユーザの特定部位の位置であってもよい。
骨格モデルは、このような点群における人体の特定の部位の位置を示す基準点PBや頭部点P1等の「骨格点」と、各骨格点を結んだ線分とで構成されるモデルである。
ここで、測距センサ2は、人体に関する点群以外に車室内に設けられた機器(以下、「車室内機器」という。)に関する点群の検知が可能である。対象物検知部11は、測距センサ2から車室内機器に関する点群を取得し、パターンマッチングにより各機器の位置情報を検知できる。車室内の機器の一例として図2等に示すドライバが着座するドライバシートSE、ドライバシートSEの上部に設けられたヘッドレストHR、ドライバが車両を操作する際に用いるステアリングホイールST、および、ステアリングホイールSTが設けられたダッシュボードDB等があげられる(図3、図4)。
さらに車室内の機器の一例として、ダッシュボードDBの近傍に設けられ、画像を出力する画像出力装置3や、車室内のフロントドア近傍に設けられ、音声等の音響を出力する音響出力装置4等もあげられる。画像出力装置3は、例えばHUD(Head-Up Display)
である。HUDは、ドライバが運転中であっても視認できる位置に設けられ、ドライバに画像を提供する。音響出力装置4は、例えばスピーカであり、ドライバに音響を提供する。
である。HUDは、ドライバが運転中であっても視認できる位置に設けられ、ドライバに画像を提供する。音響出力装置4は、例えばスピーカであり、ドライバに音響を提供する。
なお、車室内の各機器の位置情報は、車両の設計時の位置情報を予め記憶部21に記憶しておき、処理を実行するときに記憶された位置情報を読み出すことで取得することも可能である。
図1に戻り、運転姿勢判定部13は、ドライバ部位検出部12から取得した骨格点に基づいて、車両のドライバの運転姿勢を判定する。運転姿勢判定部13の判定処理については、図3、図4、図6にしたがって後に詳述する。
把持物体検出部14は、ドライバ部位検出部12が生成した骨格モデルのうち、「左手点P4」「右手点P5」近傍における位置情報から、対象物表面での光反射率の差異を検出する。例えば、携帯電話、スマートフォン等の機器の表面が鏡面反射する場合には、測距センサ2から出た光は、反射面ですべて一方向に反射されてしまい、たまたま反射方向が測距センサ2の方に向いている場合(つまり反射面が正確に測距センサ2に正対している場合であり、人が手に持って操作している機器では、通常、継続的にこのような状態になることはありえない)を除けば、測距センサ2は、反射光を検知することが困難であり、有効な位置情報が得られないからである。一方、人体の表面、衣服、車室内のドライバシートSE、ヘッドレストHR、ステアリングホイールST、ステアリングホイールST、ダッシュボードDB等の表面材料が光を拡散反射する材料である場合には、測距センサ2から出た光は、(強度の分布はあるものの)ほぼすべての方位に反射されるため(つまり測距センサ2の方向にもある程度の光が反射されるため)、測距センサ2は、反射光を検知することができるのである。そして、把持物体検出部14は、「左手点P4」「右手点P5」近傍で光の反射率が急激に低下する部分、より具体的には、位置情報が取得できない部分を携帯電話、スマートフォン等の機器が存在する部分として特定する。すなわち
、把持物体検出部14は、位置情報が取得できない部分と位置情報を特定できた部分の境界部分の位置情報を携帯電話、スマートフォン等の機器が存在する部分の表面として特定する。そして、把持物体検出部14は、「左手点P4」「右手点P5」のデータと、特定された携帯電話、スマートフォン等の機器が存在する部分のデータとをスマホ/携帯操作判定部15に引き渡す。把持物体検出部14は、特定部位の位置近傍の物品を検知する物体検出部の一例である。対象物検知部11、ドライバ部位検出部12、運転姿勢判定部13、および、把持物体検出部14は、車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知手段の一例である。
、把持物体検出部14は、位置情報が取得できない部分と位置情報を特定できた部分の境界部分の位置情報を携帯電話、スマートフォン等の機器が存在する部分の表面として特定する。そして、把持物体検出部14は、「左手点P4」「右手点P5」のデータと、特定された携帯電話、スマートフォン等の機器が存在する部分のデータとをスマホ/携帯操作判定部15に引き渡す。把持物体検出部14は、特定部位の位置近傍の物品を検知する物体検出部の一例である。対象物検知部11、ドライバ部位検出部12、運転姿勢判定部13、および、把持物体検出部14は、車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知手段の一例である。
スマホ/携帯操作判定部15は、把持物体検出部14から得られた「左手点P4」「右手点P5」のデータと、携帯電話、スマートフォン等の機器が存在する部分のデータを付き合わせ、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定する。例えば、スマホ/携帯操作判定部15は、「左手点P4」「右手点P5」のデータと、携帯電話、スマートフォン等の機器が存在する部分のデータとが所定の限度の距離内にあるときに、ドライバが携帯電話、スマートフォン等の機器を把持していると判定する。スマホ/携帯操作判定部15は、ユーザへの介入の要否を判定する判定手段の一例である。
出力制御部16は、スマホ/携帯操作判定部15の判定結果に応じて、画像情報および音響情報の少なくともいずれかの情報を含む通知情報を、画像出力装置3や音響出力装置4に出力する。
記憶部21は、情報処理装置1のドライバ検知部11等の各部で用いられる各種データを記憶する装置である。記憶部21は、例えば、危険状態判定部13が判定処理を実行する際に取得可能な車室内機器の位置情報を記憶する。記憶部21は、例えばEPROM(Erasable Programmable Read Only memory)やフラッシュメモリなどの装置である。
<2.処理>
図5および図6は、情報処理装置1の全体の処理の流れを示す図である。以下、これらの図を参照して、情報処理装置1の処理の流れを説明する。
図5および図6は、情報処理装置1の全体の処理の流れを示す図である。以下、これらの図を参照して、情報処理装置1の処理の流れを説明する。
情報処理装置1は、車両に設けられた他の装置からのACCESSORY(ACC)−ON信号を取得すると(ステップS11でYes)処理を開始する。なお、情報処理装置1がACC−ON信号を取得していない場合(ステップS11でNo)、この処理は終了する。次に、情報処理装置1は、各種設定値を初期化する(ステップS12)。そして、情報処理装置1は、測距センサ2が検知した対象物の位置情報を取得する(ステップS13)。なお、以下では対象物の位置情報は主にドライバの骨格点の位置情報とし、車室内機器の位置情報については、記憶部21から読み出された位置情報を用いるものとして以下説明を続ける。
情報処理装置1の対象物検知部11は、ドライバシートSEの位置を含むドライバ領域を選択し(ステップS14)、その領域内の人体形状に適合する点群を検知する(ステップS15)。対象物検知部11は、人体形状に適合する点群を検知した場合(ステップS16でYes)、点群の位置情報をドライバ部位検出部12に送信する。
対象物検知部11が、人体形状に適合する複数の位置情報を検知していない場合(ステップS16でNo)、ステップS12の処理に戻り、継続して処理を行う。
ドライバ部位検出部12は、人体形状に適合した点群に基づき、骨格点を検出する(ステップS17)。そして、運転姿勢判定部13は、骨格点の位置に基づいて、ドライバが
携帯電話、スマートフォン等を操作する場合の運転姿勢を検出する(ステップS18)。
携帯電話、スマートフォン等を操作する場合の運転姿勢を検出する(ステップS18)。
図3(a)は、運転姿勢判定部13が検出するドライバの運転姿勢の左側面を示す図である。図3(b)は、運転姿勢判定部13が検出するドライバの運転姿勢の右側面を示す図である。図3(a)(b)では、例えば、左手点P4および右手点P5の少なくともいずれか一方の手の骨格点の位置が端末使用領域RAの領域内の状態である。端末使用領域RAは、例えばドライバシートSEの位置とステアリングホイールSTの位置との間における所定の領域である。なお、所定の領域にはドライバシートSEとステアリングホイールSTとが存在する領域は含まれない。すなわちこの所定の領域は、ドライバが携帯端末を使用する際に、当該携帯端末を有した片手を配置する位置を含む領域である。携帯端末は、例えば、携帯電話、スマートフォン、タブレット、PHS等の端末である。
図4(a)および図4(b)は、ドライバの運転姿勢の別の具体例を示す図である。図4(a)および図4(b)に示すように、頭部点P1の位置と、左手点P4および右手点P5のいずれかの骨格点の位置との距離が、所定距離L2(例えば、10cm)以下にある。
さらに、把持物体検出部14は、「左手点P4」「右手点P5」近傍で光の反射率が急激に低下する部分、より具体的には、位置情報が取得できない部分を携帯電話、スマートフォン等の機器が存在する部分として特定する(ステップS19)。すなわち、把持物体検出部14は、位置情報が取得できない部分と位置情報を特定できた部分の境界部分の位置情報を携帯電話、スマートフォン等の機器が存在する部分として特定する。ステップS19の処理は、3次元画像から得られる測距対象の反射率の差異に基づき、前記特定部位近傍から物品を検知することの一例である。
スマホ/携帯操作判定部15は、把持物体検出部14から得られた「左手点P4」「右手点P5」のデータと、携帯電話、スマートフォン等の機器が存在する部分のデータを付き合わせ、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定する(ステップS20)。例えば、スマホ/携帯操作判定部15は、「左手点P4」「右手点P5」のデータと、携帯電話、スマートフォン等の機器が存在する部分のデータとが所定の限度の距離内にあるときに、ドライバが携帯電話、スマートフォン等の機器を把持していると判定する。S13からS19の処理は、車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知することの一例である。S20の処理は、物品の検知結果に基づき前記ユーザへの介入の要否を判定することの一例である。
そして、出力制御部16は、スマホ/携帯操作判定部15の判定結果に応じて、画像情報および音響情報の少なくともいずれかの情報を含む通知情報を、画像出力装置3や音響出力装置4に出力する。すなわち、ドライバが携帯電話、スマートフォン等の機器を把持していると判定された場合、出力制御部16は、安全な運転をするように促すメッセージ、のテキスト、あるいは画像等を画像出力装置3に出力し、音声を音響出力装置4から出力する。
<変形例>
上記ステップS19の処理では、光の反射率の差異により、位置情報が取得できない部分を携帯電話、スマートフォン等の機器が存在する部分として特定する。しかし、本情報処理装置の処理は、光の反射率の差異に基づく処理に限定される訳ではない。例えば、ステップS18の処理で、運転姿勢を検知した後、「左手点P4」「右手点P5」近傍で、物品形状に基づくパターンマッチングにより、把持物体を検出してもよい。例えば、スマートフォン等の表面に鏡面反射しない材料が被覆されている場合、あるいは、ドライバがスマートフォン等に皮革製あるいは布製のカバーを付けて操作する場合に、「左手点P4
」「右手点P5」近傍で光の反射率が急激に低下する部分、より具体的には、位置情報が取得できない部分が明確には現れない場合が生じ得る。そのような場合には、把持物体検出部14は、ステップS19の処理において、パターンマッチングにより、携帯電話、スマートフォン等の機器が存在する部分として特定すればよい。この場合、パターンマッチングで参照される携帯電話、スマートフォン等のテンプレートは、記憶部21に格納しておき、把持物体検出部14が記憶部21からテンプレートを取得し、パターンマッチングを実行すればよい。
上記ステップS19の処理では、光の反射率の差異により、位置情報が取得できない部分を携帯電話、スマートフォン等の機器が存在する部分として特定する。しかし、本情報処理装置の処理は、光の反射率の差異に基づく処理に限定される訳ではない。例えば、ステップS18の処理で、運転姿勢を検知した後、「左手点P4」「右手点P5」近傍で、物品形状に基づくパターンマッチングにより、把持物体を検出してもよい。例えば、スマートフォン等の表面に鏡面反射しない材料が被覆されている場合、あるいは、ドライバがスマートフォン等に皮革製あるいは布製のカバーを付けて操作する場合に、「左手点P4
」「右手点P5」近傍で光の反射率が急激に低下する部分、より具体的には、位置情報が取得できない部分が明確には現れない場合が生じ得る。そのような場合には、把持物体検出部14は、ステップS19の処理において、パターンマッチングにより、携帯電話、スマートフォン等の機器が存在する部分として特定すればよい。この場合、パターンマッチングで参照される携帯電話、スマートフォン等のテンプレートは、記憶部21に格納しておき、把持物体検出部14が記憶部21からテンプレートを取得し、パターンマッチングを実行すればよい。
また、本実施形態の処理は、測距センサ2からの位置情報以外の情報、例えば、カメラ等の撮影装置から取得される2次元画像に対して適用してもよい。すなわち、カメラの画像から、対象物検知部11がパターンマッチングにより人体形状に適合する画像部分を検知してもよい。そして、ドライバ部位検出部12は、人体形状に適合した画像部分に基づき、骨格点を検出し、運転姿勢判定部13は、骨格点の位置に基づいて、ドライバが携帯電話、スマートフォン等を操作する場合の運転姿勢を検出すればよい。そして、把持物体検出部14は、「左手点P4」「右手点P5」近傍でパターンマッチングにより、携帯電話、スマートフォン等の機器が存在する部分として特定すればよい。
さらに、情報処理装置1は、測距センサ2から得られる位置情報と、カメラ等の撮影装置から得られる画像とを併用してもよい。例えば、情報処理装置1は、対象物検知部11、ドライバ部位検出部12、運転姿勢判定部13による処理によって、測距センサ2からの位置情報から、「左手点P4」「右手点P5」を特定する。そして、情報処理装置1は、カメラから得られた画像中の「左手点P4」「右手点P5」に対応する位置近傍で、パターンマッチングにより、携帯電話、スマートフォン等の機器が存在する部分として特定すればよい。
図7は、変形例に係る把持物体検出処理の流れを示す図である。図7で、AおよびBは、図6と同様に、図5に接続される箇所である。この処理では、図6の場合と同様、運転姿勢判定部13は、骨格点の位置に基づいて、ドライバが携帯電話、スマートフォン等を操作する場合の運転姿勢を検出する(ステップS18)。次に、情報処理装置1は、図示しないカメラ等の撮影装置で撮影された画像を取得する(ステップS19A)。そして、情報処理装置1は、運転姿勢判定部13が検出した骨格点である「左手点P4」「右手点P5」を2次元画像に変換するともに、撮影装置で撮影された画像と同一の座標系に縮尺および原点を合わせて座標変換する(ステップS19B)。そして、情報処理装置1は、画像内に座標変換された「左手点P4」「右手点P5」の位置近傍で、パターンマッチングにより、携帯電話、スマートフォン等の機器が存在する部分として特定する(ステップS19C)。ステップS19Cの処理は、物品の形状に基づくパターンマッチングにより前記物品を検知することの一例である。S20以下の処理は、図6の場合と同様である。
以上述べたように、本実施の形態の情報処理装置1は、ユーザの特定部位の位置、例えば、「左手点P4」「右手点P5」近傍で、位置情報を検知する測距対象物の光の反射率の差異、あるいは、画像のパターンマッチングにより、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定することができる。これにより、ドライバの運転中の携帯電話、スマートフォン等の物品の操作等、運転中の問題につながる可能性のある行為を精度よく検知することができる。そして、ドライバが携帯電話、スマートフォン等の機器を把持している場合には、情報処理装置1は、安全な運転をするように促すメッセージのテキスト、画像等を画像出力装置3に出力し、あるいは、音声メッセージを音響出力装置4に出力し、安全運転をするようにドライバに介入することができる。すなわち、情報処理装置1は、物品の検知結果に基づきドライバへの介入の要否を判定することができる。
すなわち、情報処理装置1は、測距センサからの位置情報に基づく3次元画像を取得し、3次元画像から特定部位、例えば、「左手点P4」「右手点P5」近傍で、測距対象物の光の反射率の差異、あるいは、画像のパターンマッチングにより、携帯電話、スマートフォン等の機器の存在を特定し、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定することができる。これにより、ドライバの運転中の携帯電話、スマートフォン等の物品の操作等、運転中の問題につながる可能性のある行為を、より精度よく検知することができる。また、情報処理装置1は、カメラ等の画像撮影装置から取得した画像からパターンマッチングにより、「左手点P4」「右手点P5」近傍で、携帯電話、スマートフォン等の機器の存在を特定し、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定することができる。
また、上記画像が、測距センサ2からの位置情報に基づく3次元画像である場合には、情報処理装置1は、3次元形状に基づいて、2次元画像よりも的確に、「左手点P4」「右手点P5」等の位置を特定し、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定することができる。また、この場合に、情報処理装置1は、3次元画像から得られる測距対象の反射率の差異に基づき、特定部位近傍から物品を検知することができる。
また、画像がカメラ等の撮影装置から得られる2次元画像の場合には、情報処理装置1は、パターンマッチングを用いることにより、測距センサ2よりも汎用的な構成で、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定することができる。また、情報処理装置1が測距センサ2とカメラ等の撮影装置の両方を有する場合には、まず、測距センサ2からの位置情報によって的確に、「左手点P4」「右手点P5」等の位置を特定できる。そして、情報処理装置1は、測距センサ2からの位置情報を撮影装置の2次元画像の座標系に、座標変換することで、測距センサ2と汎用的な撮影手段とを組み合わせた手段により、ドライバが携帯電話、スマートフォン等の機器を把持しているか否かを判定することができる。
<その他>コンピュータが読み取り可能な記録媒体
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD−ROM、CD−R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスク、ROM(リードオンリーメモリ)等がある。さらに、SSD(Solid State Drive)は、コンピュータ等から取り外し可能な記録媒体としても、コンピュータ
等に固定された記録媒体としても利用可能である。
等に固定された記録媒体としても利用可能である。
本実施形態では携帯電話、スマートフォンなどの機器を把持しているかに適用したが、特定部位(手)が車両とドライバとのコミュニケーション手段となる物品(操作や表示可能なディスプレィ)に接触し、操作していることが画像処理で判定された場合、通知情報を出力することも可能である。
また、この情報処理システムを自動運転に適用し(自動運転装置に組み込み)、自動運
転の状況に応じた本情報処理を行うことも可能である。例えば非自動運転中に限り情報処理システムの通知情報を出力する。あるいは自動運転中に常時操作有無の判定を行い、非自動運転の切り替え前に操作ありと判断すれば、通知情報を出力し、手動運転を促すようにしてもよい。
転の状況に応じた本情報処理を行うことも可能である。例えば非自動運転中に限り情報処理システムの通知情報を出力する。あるいは自動運転中に常時操作有無の判定を行い、非自動運転の切り替え前に操作ありと判断すれば、通知情報を出力し、手動運転を促すようにしてもよい。
1 情報処理装置
2 測距センサ
3 画像出力装置
4 音響出力装置
10 情報処理システム
11 対象物検知部
12 ドライバ部位検出部
13 運転姿勢判定部
14 把持物体検出部
15 スマホ/携帯操作判定部
16 出力制御部
21 記憶部
2 測距センサ
3 画像出力装置
4 音響出力装置
10 情報処理システム
11 対象物検知部
12 ドライバ部位検出部
13 運転姿勢判定部
14 把持物体検出部
15 スマホ/携帯操作判定部
16 出力制御部
21 記憶部
Claims (7)
- 車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知手段と、
前記物品の検知結果に基づき前記ユーザへの介入の要否を判定する判定手段と、を備えることを特徴とする情報処理装置。 - 前記検知手段は、前記ユーザの画像を取得する対象物検知部と、
前記ユーザの画像から前記特定部位の位置近傍の物品を検知する物体検出部と、を有する請求項1に記載の情報処理装置。 - 前記ユーザの画像は、前記ユーザおよびユーザ周囲との距離を測定する測距手段の測定結果に基づく3次元画像である請求項2に記載の情報処理装置。
- 前記検知手段は、前記3次元画像から得られる測距対象の反射率の差異に基づき、前記特定部位近傍から物品を検知する請求項3に記載の情報処理装置。
- 前記検知手段は、前記物品の形状に基づくパターンマッチングにより前記物品を検知する請求項1から4のいずれか1項に記載の情報処理装置。
- 車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知手段、及び前記物品の検知結果に基づき前記ユーザへの介入の要否を判定する判定手段を備える情報処理装置と、
前記特定部位の位置を含む前記ユーザの位置を検出する測距手段と、
前記ユーザへの介入が要と判定された場合に、ユーザへの介入を行う通知装置と、を備える情報処理システム。 - 車両に搭乗しているユーザの特定部位の位置を特定し、前記特定部位近傍から物品を検知する検知ステップと、
前記物品の検知結果に基づき前記ユーザへの介入の要否を判定する判定ステップと、を実行することを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015243497A JP2017111508A (ja) | 2015-12-14 | 2015-12-14 | 情報処理装置、情報処理システム、および、情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015243497A JP2017111508A (ja) | 2015-12-14 | 2015-12-14 | 情報処理装置、情報処理システム、および、情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017111508A true JP2017111508A (ja) | 2017-06-22 |
Family
ID=59080257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015243497A Pending JP2017111508A (ja) | 2015-12-14 | 2015-12-14 | 情報処理装置、情報処理システム、および、情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017111508A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019179290A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社東海理化電機製作所 | 処理装置、及びプログラム |
JP2019179288A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社東海理化電機製作所 | 処理装置、及びプログラム |
JP2019196160A (ja) * | 2018-05-08 | 2019-11-14 | 海明 小張 | 車両安全運転システム |
WO2022249406A1 (ja) * | 2021-05-27 | 2022-12-01 | 日本電信電話株式会社 | 状態判定装置、状態判定方法、及びプログラム |
-
2015
- 2015-12-14 JP JP2015243497A patent/JP2017111508A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019179290A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社東海理化電機製作所 | 処理装置、及びプログラム |
JP2019179288A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社東海理化電機製作所 | 処理装置、及びプログラム |
JP7053342B2 (ja) | 2018-03-30 | 2022-04-12 | 株式会社東海理化電機製作所 | 処理装置、及びプログラム |
JP7117878B2 (ja) | 2018-03-30 | 2022-08-15 | 株式会社東海理化電機製作所 | 処理装置、及びプログラム |
JP2019196160A (ja) * | 2018-05-08 | 2019-11-14 | 海明 小張 | 車両安全運転システム |
WO2022249406A1 (ja) * | 2021-05-27 | 2022-12-01 | 日本電信電話株式会社 | 状態判定装置、状態判定方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11511421B2 (en) | Object recognition processing apparatus and method, and object picking apparatus and method | |
JP6264495B1 (ja) | 運転者監視装置、運転者監視方法、学習装置及び学習方法 | |
JP2017111508A (ja) | 情報処理装置、情報処理システム、および、情報処理方法 | |
US10255485B2 (en) | Identification device, identification method, and recording medium recording identification program | |
CN103869975B (zh) | 车辆中利用手腕角度操作用户界面的系统和方法 | |
CN108369476B (zh) | 信息处理设备、信息处理方法和计算机可读介质 | |
JP2019034574A (ja) | 運転者状態把握装置、運転者状態把握システム、及び運転者状態把握方法 | |
CN111665513B (zh) | 面部特征部检测装置、面部特征部检测方法 | |
US9606623B2 (en) | Gaze detecting apparatus and method | |
US11299170B2 (en) | Passenger support device, passenger support method and program storage medium | |
JP7290930B2 (ja) | 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム | |
JP2011054118A (ja) | 表示制御装置、表示制御方法及び表示制御プログラム | |
JP6479272B1 (ja) | 視線方向較正装置、視線方向較正方法および視線方向較正プログラム | |
EP3680754B1 (en) | Orientation of an electronic device toward a user using utterance localization and image processing | |
JP2019046273A (ja) | 運転者状態把握装置、運転者状態把握システム、及び運転者状態把握方法 | |
JP2016110374A (ja) | 情報処理装置、情報処理方法、および、情報処理システム | |
JP5718139B2 (ja) | レーダ装置、バス、および乗客移動検出方法、並びにプログラム | |
JP6601903B2 (ja) | 報知装置、及び移動システム | |
JP2017117211A (ja) | 検出装置、方法、及びプログラム | |
CN109927058B (zh) | 抓握装置、抓握判定方法和抓握判定程序 | |
JP2010079639A (ja) | 車両の歩行者検出装置 | |
JP2018055614A (ja) | ジェスチャ操作システム、ジェスチャ操作方法およびプログラム | |
JP2014142695A (ja) | 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム | |
JP2012043364A (ja) | 物体認識装置 | |
CN109484480A (zh) | 汽车的控制方法、装置及存储介质 |