JP2010036762A - 行動推定装置、プログラム - Google Patents

行動推定装置、プログラム Download PDF

Info

Publication number
JP2010036762A
JP2010036762A JP2008203100A JP2008203100A JP2010036762A JP 2010036762 A JP2010036762 A JP 2010036762A JP 2008203100 A JP2008203100 A JP 2008203100A JP 2008203100 A JP2008203100 A JP 2008203100A JP 2010036762 A JP2010036762 A JP 2010036762A
Authority
JP
Japan
Prior art keywords
behavior
action
object information
estimation
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008203100A
Other languages
English (en)
Other versions
JP5217754B2 (ja
Inventor
Takahiro Ishikawa
貴洋 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2008203100A priority Critical patent/JP5217754B2/ja
Publication of JP2010036762A publication Critical patent/JP2010036762A/ja
Application granted granted Critical
Publication of JP5217754B2 publication Critical patent/JP5217754B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】行動推定装置において、使用者が実行している特定行動を検出するまでに要する時間を短縮可能とすること。
【解決手段】画像処理プロセッサが実行する行動推定処理では、撮影装置で撮影した撮影画像を取得し(S110)、熱源カメラからの熱源画像を取得して(S130)、撮影画像に写り込んだ運転者の全特徴点を抽出する(S150)。そして、熱源画像に対して、持込品検出用テンプレートそれぞれを照合して、車室内に存在する持込品を検出し、その持込品についての存在物体情報を生成する(S230)。さらに、特定行動の実行時に持込品を使用しない基本パターンと、車室内に存在する持込品を用いて実行可能な特定行動に対応する行動推定モデルとに、検出特徴点と照合する行動推定モデルを絞り込む(S250)。その絞り込まれた行動推定モデルと、検出特徴点とを照合することで、推定行動を検出している(S270)。
【選択図】図2

Description

本発明は、移動体に搭載され、乗員が実行する行動を推定する行動推定装置、及びプログラムに関する。
従来より、車両に搭載され、車両の乗員が実行する行動を推定する行動推定装置が知られている(特許文献1参照)。
この特許文献1に記載の行動推定装置は、運転者を含む画像を撮影する撮影装置と、撮影装置で撮影された画像(以下、撮影画像とする)に基づき、運転中の運転者が実行すると危険な行動(以下、特定行動とする)の一つである携帯電話の使用の有無(以下、この携帯電話を使用する行動を電話使用行動とする)を判定する画像処理装置とを備えている。そして、この画像処理装置では、電話使用行動中の運転者の手が位置する可能性の高い領域である規定領域を撮影画像中の顔面の周囲に設定し、その規定領域内に、撮影画像中の手が設定時間以上位置し続けていれば、運転者が電話使用行動を実行中であるものと判定している。
ところで、特定行動としては、電話使用行動の他に、ステアリングから手を離してエアコンディショナーやナビゲーション装置を操作する行動、または、ステアリングから手を離して肩や腕を回す行動などが考えられる。
しかしながら、特許文献1に記載の行動推定装置では、撮影画像中の手の位置から電話使用行動が実行されているか否かを判定しているに過ぎないため、この電話使用行動以外の特定行動(以下、一般特定行動とする)を運転者が実行していたとしても、警報を発する等の車両を安全に走行させるための安全制御を実行することができなかった。
これに対して、本願発明者は、特定行動の実行時に得られる特徴点(例えば、人物の手首や肘)の軌跡をモデル化した行動推定モデルを、全ての特定行動について用意し、これら特定行動毎に用意された行動推定モデルそれぞれと、撮影画像から検出した特徴点の軌跡とを照合し、その適合度合いに応じて、運転者が実行している特定行動を検出する画像処理装置を備えたものを提案している(特願2007−203111号)。
なお、本願発明者が提案した装置(以下、従来行動推定装置とする)では、特徴点の軌跡が最も一致する行動推定モデルに対応する特定行動を、運転者が実行しているものとして検出している。
特開2005−205943号公報
ところで、従来行動推定装置において、当該従来行動推定装置の使用者がどの特定行動を実行しているのかを検出するために、撮影画像から検出した検出特徴点の軌跡を、予め生成されている全ての行動推定モデルと照合する必要があった。
したがって、従来行動推定装置では、検出特徴点の軌跡と照合する行動推定モデルの数が膨大なものとなり、使用者が実行している特定行動を検出するまでに時間を要するという問題があった。
そこで、本発明は、行動推定装置において、使用者が実行している特定行動を検出するまでに要する時間を短縮可能とすることを目的とする。
上記目的を達成するためになされた本発明は、移動体に搭載され、乗員の行動を推定する行動推定装置である。
そして、本発明の行動推定装置では、撮影画像取得手段が、乗員が撮影された撮影画像を繰り返し取得し、乗員の身体上に予め設定された少なくとも一つのポイントを特徴点とし、特徴点検出手段が、その撮影画像が取得される毎に、取得した撮影画像に写り込んだ人物の特徴点の位置である検出特徴点を検出する。
また、乗員が実行する可能性のある行動それぞれを特定行動とし、行動推定モデル格納手段が、各特定行動毎に予め生成され、特定行動を実行する時の特徴点の位置からなる行動推定モデルを、その特定行動時に使用する物体それぞれに関する情報である使用物体情報と対応付けて格納している。
さらに、物体情報取得手段が、移動体内に存在する可能性のある物体それぞれに関する情報である存在物体情報を取得し、その取得した存在物体情報それぞれに基づいて、モデル抽出手段が、行動推定モデル格納手段に格納された行動推定モデルの中から、乗員が実行可能な特定行動に対応する行動推定モデルを抽出すると共に、推定行動検出手段が、特徴点検出手段で検出された検出特徴点を、モデル抽出手段で抽出された行動推定モデルそれぞれと照合し、最も適合率の高い行動推定モデルに対応する特定行動を推定行動として検出する。
つまり、本発明の行動推定装置では、全ての行動推定モデルの中から、存在物体情報に基づいて絞り込まれた行動推定モデルのみと、撮影画像から検出した検出特徴点を照合することにより、乗員が実行している可能性が最も高い行動(即ち、推定行動)を検出する。
したがって、本発明の行動推定装置によれば、存在物体情報に応じて、乗員が実行可能な特定行動に対応する行動推定モデルのみに絞り込まれているため、従来の行動推定装置に比べて、検出特徴点を照合する行動推定モデルの数が削減され、使用者が実行している特定行動を検出するまでに要する時間を短縮することができる。
しかも、本発明の行動推定装置によれば、乗員が実行可能な特定行動を絞り込んだ上で、推定行動を検出しているため、推定行動の検出精度を向上させることができる。
特に、存在物体情報それぞれ、及び使用物体情報それぞれに、少なくとも一つの項目が含まれている場合、本発明の行動推定装置におけるモデル抽出手段は、請求項2に記載のように、規定項目が存在物体情報と一致する使用物体情報と対応付けられた行動推定モデルを抽出するように構成されていることが望ましい。
このように構成された本発明の行動推定装置では、規定項目が存在物体情報と不一致である使用物体情報と対応付けられた行動推定モデル、即ち、使用者が実行する可能性の無い特定行動に対応する行動推定モデルを、検出特徴点の軌跡と照合する対象(以下、照合対象とする)から除外する。
つまり、本発明の行動推定装置によれば、使用者が実行する可能性がより高い特定行動に対応する行動推定モデルのみを抽出するため、乗員が実行している特定行動を他の特定行動として認識する等の誤検出を低減できる。
そして、本発明の行動推定装置において、規定項目は、請求項3に記載のように、物体の有無、物体の種類、物体が存在する位置、物体の軌跡のうち、少なくとも一つであっても良い。
例えば、物体の種類を規定項目とした場合、特定行動に使用される可能性のある物体(以下、使用物体とする)と同じ種類の物体が移動体内に存在していなければ、その種類の使用物体を用いた特定行動が乗員に実行される可能性が無いものとして、該当する種類の使用物体(即ち、移動体内に存在しない物体)についての使用物体情報と対応付けられた行動推定モデルを照合対象から除外する。
これにより、本発明の行動推定装置によれば、乗員に実行される可能性がより高い特定行動に対応した行動推定モデルに照合対象を絞り込むため、乗員が実行している特定行動を他の特定行動として認識する等の誤検出をより確実に低減できる。
さらに、物体が存在する位置(以下、物体位置とする)を規定項目とした場合、使用物体と同じ種類の物体が移動体内に存在していたとしても、その物体位置が使用物体情報中に表された物体位置から規定距離以上離れていれば、その使用物体を用いた特定行動が乗員に実行される可能性が低いものとして、該当する物体位置についての使用物体情報と対応付けられた(即ち、乗員に実行される可能性が低い特定行動についての)行動推定モデルを照合対象から除外する。
これにより、本発明の行動推定装置によれば、検出特徴点の軌跡と照合する行動推定モデルの数を低減でき、特定行動を検出するまでに要する時間をより短縮することができる。
ところで、移動体内の乗員が実行する行動は、必ずしも物体を用いる行動に限るものではなく、物体を用いない行動(例えば、ステアリングからシフトレバーへの手を移動させる行動や、肩を回す行動等)を実行することもある。
このため、使用物体情報それぞれに、対応する特定行動に物体を用いるか否かが含まれている場合、本発明の行動推定装置におけるモデル抽出手段は、請求項4に記載のように、存在物体情報の内容に拘わらず、物体を用いないことを表す使用物体情報と対応付けられた行動推定モデルを常に抽出するように構成されていることが望ましい。
このように構成された行動推定装置によれば、移動体内に物体が存在するか否かに拘わらず実行される可能性のある特定行動(即ち、物体を使用する必要のない特定行動)に対応する行動推定モデルを抽出するため、推定行動の検出精度が低下することを防止することができる。
なお、本発明の行動推定装置は、請求項5に記載のように、存在物体検出手段が、移動体内における物体の有無を検出し、その検出の結果、物体が存在する場合、物体位置検出手段が、各物体の位置を検出すると共に、存在物体情報生成手段が、存在物体検出手段、及び物体位置検出手段での検出結果に基づいて、存在物体情報を生成するように構成されていても良い。
ただし、このように本発明の行動推定装置が構成されている場合、物体情報取得手段は、存在物体情報生成手段で生成された存在物体情報を取得するように構成されている必要がある。
さらに、上述したように(請求項5に記載のように)構成された行動推定装置が、請求項6に記載のように、熱源画像取得手段により、移動体内の温度分布が写り込んだ熱源画像を取得するように構成されている場合、物体検出手段、及び物体位置検出手段それぞれは、物体の種類毎に予め生成された物体モデルを、取得した熱源画像と照合することにより、物体の有無、及び物体の位置を検出するように構成されていることが望ましい。
ただし、ここで言う熱源画像とは、物体から放射される赤外線量の分布(即ち、温度分布)が投影された画像であり、例えば、近赤外画像や、遠赤外画像などである。
さらに、本発明の行動推定装置は、請求項7に記載のように、安全制御手段が、推定行動検出手段で検出された推定行動に応じて、移動体が安全に操縦されるための安全制御を実行するように構成されていても良い。
このように構成された本発明の行動推定装置によれば、乗員が実行している特定行動を早期に検出するため、従来行動推定装置に比べて、安全制御の開始までに要する時間を短縮することができる。この結果、本発明の行動推定装置によれば、移動体をより安全に操縦させることができる。
そして、特定行動のうち、乗員が実行すると移動体の操縦に悪影響を及ぼす可能性のある行動を危険行動とした場合、本発明の行動推定装置における安全制御手段は、請求項8に記載のように、推定行動が危険行動であれば、その危険行動を中止すべき旨を報知することを安全制御として実行するように構成されていることが望ましい。
このように構成された本発明の行動推定装置によれば、危険行動を中止するように促すため、移動体をより安全に操縦させることができる。
なお、本発明は、請求項9に記載のように、請求項1ないし請求項8のいずれかに記載の行動推定装置を構成する各手段として、コンピュータを機能させるためのプログラムとしてなされたものであっても良い。
このような本発明のプログラムによれば、例えば、DVD−ROM、CD−ROM、ハードディスク等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータにロードさせて起動することにより用いることができる。
以下に本発明の実施形態を図面と共に説明する。
図1は、本発明が適用され、自動車に搭載された行動推定システムの概略構成を示したブロック図である。なお、以下では、行動推定システム1が搭載された車両を自車両と称す。
この行動推定システム1は、自車両の運転者が実行する可能性のある予め規定された複数の行動(以下、これらの複数の行動をまとめて特定行動群と称し、この特定行動群のうちの各行動を特定行動と称す)の中から、自車両の乗員が実行している可能性が最も高い特定行動(以下、推定行動とする)を検出し、検出結果に応じて、自車両を安全に走行させるための安全制御を実行するものである。
〈全体構成〉
これを実現するために、行動推定システム1は、少なくとも運転者を被写体とした画像(以下、撮影画像とする)を撮影する撮影装置15と、車室内の温度分布を表す熱源画像を取得する熱源カメラ16と、自車両に搭載された複数の装置からなる制御対象装置群20と、撮影装置15で撮影した撮影画像、及び熱源カメラ16で取得した熱源画像を画像処理することで推定行動を検出し、その検出した推定行動に従って制御対象装置群20を制御する画像処理プロセッサ10とを備えている。
このうち、撮影装置15は、予め規定された時間間隔で撮影した撮影画像を画像処理プロセッサ10に繰り返し出力するように構成された周知のデジタルカメラである。その撮影装置15は、図8に示すように、少なくとも運転席に着座している運転者の上半身(即ち、運転者の頭部、両腕、両手、及び胴体等)、助手席のシート(助手席に人物が着座していれば、その人物)、及びインストルメントパネルの周辺(例えば、ステアリング、シフトレバー、コンソールボックスなど)が撮影画像に収められるように、車室内へとレンズを向けた上で、自車両の天板(または、フロントガラス)に突設されたルームミラーの付け根付近に配置されている。
次に、熱源カメラ16は、物体から放射される赤外線の量に従って、熱源画像を生成して取得する、いわゆるサーモグラフィーであり、予め規定された時間間隔で熱源画像を生成して画像処理プロセッサ10に出力するように構成されている。その熱源カメラ16は、少なくとも運転席に着座している運転者(即ち、運転者の頭部、両腕、両手、及び胴体等)、助手席のシート、及びインストルメントパネル周辺の物体が熱源画像として収められるように、撮影装置15のレンズとは異なる角度で車室内へとレンズを向けた上で、自車両の天板(または、フロントガラス)に配置されている。
つまり、撮影装置15及び熱源カメラ16は、それぞれの配置位置が異なるものの、同一の物体が両画像内に納められる(即ち、被写体となる)ように、予め規定された位置関係にて配置されている。
また、制御対象装置群20は、周知の経路案内等を行うナビゲーション装置21と、自車両に搭載された空気調和装置(いわゆるエアコンディショナー)を制御する空調制御装置22と、自車両に備えられたシートベルトを巻き取るシートベルト巻上装置23と、ブレーキ機構にて発生する制動力を制御するブレーキ制御装置24と、パワートレイン機構にて出力する駆動力を制御するパワートレイン制御装置25とを備えている。
ナビゲーション装置21は、自車両の現在位置を検出する現在位置検出器と、地図データを格納する地図データ格納部と、音声を出力するスピーカと、画像を表示するモニタと、使用者からの指示を入力するための指示入力部(例えば、メカニカルなボタンやタッチパネル、以下、ナビ指示入力部とする)と、周知のマイクロコンピュータを中心に構成され、ナビ指示入力部を介して入力された指示に従って、周知の現在位置表示処理、経路設定処理、経路案内処理等を実行すると共に、画像処理プロセッサ10からの制御指令に従って、スピーカ、及びモニタを制御する制御装置とを少なくとも備えている。
また、空調制御装置22は、使用者の指示を入力するための指示入力部(例えば、メカニカルなボタンやタッチパネル、以下、AC指示入力部とする)を少なくとも備え、そのAC指示入力部を介して入力された指示に従って、空気調和装置を制御すると共に、画像処理プロセッサ10からの制御指令に従って、空気調和装置から運転者に冷風を吹き付ける冷風送気制御を実行するように構成されている。
さらに、シートベルト巻上装置23は、画像処理プロセッサ10からの制御指令に従って、運転席側のシートベルトを巻き取り、シートベルトの拘束力を増加させるように構成されている。
また、ブレーキ制御装置24は、画像処理プロセッサ10からの制御指令に従って、ブレーキ油圧回路に備えられた増圧制御弁・減圧制御弁を開閉するブレーキアクチュエータを制御するように構成されている。
そして、パワートレイン制御装置25は、画像処理プロセッサ10からの制御指令に従って、内燃機関のスロットル開度を調整するスロットルアクチュエータや、トランスミッションの出力トルクを調整するトランスミッション制御装置を制御するように構成されている。
〈画像処理プロセッサについて〉
次に、画像処理プロセッサについて説明する。
画像処理プロセッサ10は、処理プログラム等を記憶するROM10aと、データを一時的に格納するRAM10bと、ROM10aまたはRAM10bに格納された処理プログラムに従って各種処理を実行するCPU10cとを少なくとも有した周知のマイクロコンピュータを中心に構成されている。
このうち、ROM10aには、熱源カメラ16で取得した熱源画像に基づいて、特定行動群の中から、運転者が実行している可能性の高い特定行動を絞り込み、その絞り込んだ特定行動の中から推定行動を検出し、その検出結果に応じて、安全制御を行う行動推定処理をCPU10cに実行させるための処理プログラムが格納されている。
さらに、ROM10aには、行動推定処理を実行する時に参照される(即ち、行動推定処理の実行に必要な)特徴点リストと、物体検出用テンプレートと、行動推定モデル群とが格納されている。
このうち、特徴点リストは、撮影画像に写り込んだ運転者から、予め人物の身体上に設定された特徴点を検出するためのものであり、人体の腕部に設定された特徴点を検出するための腕部リストと、人体の頭部(より正確には顔面)に設定された特徴点を検出するための頭部リストとを少なくとも備えている。
そして、腕部リストには、図6に示すように、人体の右肩(図中、d1),左肩(d4),右ひじ(d2),左ひじ(d5),右手首(d3),左手首(d6)が特徴点として少なくとも設定されている。
さらに、頭部リストには、図7(A)に示すように、顔面の鼻(f1)を検出し、その鼻を中心とした顔面領域を抽出するための顔面検出テンプレートと、図7(B)に示すように、顔面の右目頭(図中,fr3),左目頭(fl3),右目尻(fr2),左目尻(fl2),右口角(fr4),左口角(fl4),右耳珠点(fr5),左耳珠点(fl5)が特徴点として少なくとも設定された顔面特徴点検出テンプレートとが含まれている。
〈物体検出用テンプレート〉
次に、物体検出用テンプレートについて説明する。
この物体検出用テンプレートは、車室内に存在し、かつ自車両の乗員によって車室内に持ち込まれた物体(以下、持込品とする)を、熱源画像を用いて検出するためのものである。
そして、各物体検出テンプレートは、持込品が存在する可能性のある熱源画像上での領域(以下、物体存在候補領域とする)を特定するための候補領域テンプレートと、車室内に存在する持込品を検出するための持込品検出用テンプレートとから構成されている。
このうち、候補領域テンプレートは、各物体存在候補領域の大きさ及び位置(例えば、領域の端部の座標等)を、熱源カメラ16の設置位置に基づいて予め規定したものである。なお、本実施形態における物体存在候補領域としては、助手席のシート上、自車両に搭載されているドリンクホルダー、携帯電話ホルダー、灰皿が少なくとも設定されている。
一方、持込品検出用テンプレートは、持込品の種類毎に予め規定したものであり、その持込品の種類に応じた形状、大きさに加えて、その持込品の(即ち、形状内での)温度分布が含まれている。
なお、本実施形態における持込品として、携帯電話、たばこ、缶やペットボトル、瓶に注入されたドリンク等がある。
〈行動推定モデル群〉
次に、行動推定モデル群について説明する。
ここで、図13,14は、行動推定モデル、及び後述する使用物体情報を例示した説明図である。
この行動推定モデル群は、撮影画像から検出した特徴点(以下、検出特徴点とする)の位置に基づいて、推定行動を検出するために用いるものであり、特定行動毎に予め設定された行動推定モデルからなる。
そして、行動推定モデルそれぞれは、各特定行動を開始した時の各特徴点の位置(即ち、開始位置)と、その特定行動を終了した時の各特徴点の位置(即ち、終端位置)と、開始位置から終端位置への(即ち、その特定行動を実行中の)各特徴点の移動経路(即ち、特徴点軌跡)とを備えている。
また、行動推定モデルそれぞれには、その行動推定モデルに対応する特定行動(以下、対応特定行動とする)の実行時に使用する物体(即ち、持込品)それぞれに関する情報である使用物体情報が対応付けられている。
この使用物体情報は、対応特定行動に持込品を使用する必要があるか否かを表す使用有無情報と、使用有無情報が持込品を使用することを表す場合に付帯される持込品使用時情報とからなる。
そして、持込品使用時情報には、各対応特定行動に使用する持込品の種類を表す使用物種類と、その持込品が存在する可能性のある領域(即ち、位置)を表す使用物位置と、対応特定行動の実行時に持込品が移動する軌跡を表す持込品軌跡とが備えられている。
ところで、本実施形態における特定行動としては、自車両に搭載された操作機器群のうちの一つを運転者が継続して操作している行動(以下、操作継続行動とする)や、1つの操作機器から他の操作機器へと運転者が手等を移動させる行動(以下、遷移行動とする)がある。
そして、本実施形態における操作機器としては、ルームミラーや、助手席のシート、空気調和装置の吹き出し口(いわゆる左右のブロワ)、ナビ指示入力部、AC指示入力部、ステアリング、シフトレバー、物品を収納するためのグローブボックス、コンソールボックスが少なくとも設定されている。
つまり、操作継続行動についての行動推定モデルでは、一つの操作機器が開始位置及び終端位置として設定され、遷移行動についての行動推定モデルでは、1つの操作機器が開始位置として、他の操作機器が終端位置として設定されている。したがって、操作継続行動及び遷移行動についての行動推定モデルは、開始位置と終了位置との組合せ分だけ存在する。
そして、操作継続行動、及び遷移行動についての行動推定モデルそれぞれと対応付けられた使用物体情報中の使用有無情報は、操作継続行動、もしくは遷移行動の実行時に持込品の使用が無いことを表すものとされている。
また、本実施形態における特定行動としては、運転者が持込品を操作する行動(以下、持込品操作行動とする)や、運転者が自身の身体部位に触れる行動(以下、タッチ行動とする)がある。
このうち、持込品操作行動としては、図10に示すように、左右いずれかの手で携帯電話を保持し、その携帯電話を左右いずれかの耳にあてがい、運転者が通話するまでの一連の行動(以下、電話使用行動とする)がある。このほか、持込品操作行動としては、図11(A)に示すように、左右いずれかの手でドリンクを保持し、そのドリンクを口にあてがい、運転者が飲み物を飲むまでの一連の行動(以下、飲食行動とする)や、図11(B)に示すように、左右いずれかの手でたばこを保持し、そのたばこを口にあてがい、運転者が喫煙するまでの一連の行動(以下、喫煙行動とする)がある。
つまり、持込品操作行動についての行動推定モデルでは、開始位置及び終端位置として、操作機器、物体存在候補領域、特徴点のいずれか一つが設定されている。
そして、持込品操作行動についての行動推定モデルそれぞれと対応付けられた使用物体情報では、持込品を使用することを表すものとして使用有無情報が設定され、使用物種類、使用物位置、持込品軌跡が対応特定行動で使用される持込品に応じたものとして持込品使用時情報が設定されている。
さらに、タッチ行動としては、図12に示すように、左右いずれかの手で左右いずれかの耳に触れるまでの一連の行動や、左右いずれかの手で左右いずれかの肩、上腕、前腕をマッサージするまでの一連の行動(以下、これらをマッサージ行動とする)、左右いずれかの肩や腕を回すまでの一連の行動がある。
つまり、タッチ行動についての行動推定モデルでは、開始位置及び終端位置として、特徴点のいずれか一つが設定されている。そして、タッチ行動についての行動推定モデルそれぞれと対応付けられた使用物体情報中の使用有無情報は、タッチ行動の実行時に持込品の使用が無いことを表すものとされている。
〈行動推定処理〉
次に、CPU10cが実行する行動推定処理について説明する。
ここで、図2は、行動推定処理の処理手順を示したフローチャートである。
この行動推定処理は、画像処理プロセッサ10が起動されると(本実施形態では、イグニッションスイッチがオンされた時)、起動されるものである。
そして、図2に示すように、行動推定処理が起動されると、まずS110では、撮影装置15で撮影した撮影画像を取得する。続く、S130では、熱源カメラ16からの熱源画像を取得する。
そして、S150では、S110で取得した撮影画像に特徴点リストを照合することで、撮影画像に写り込んだ運転者の全特徴点を抽出し、抽出した全特徴点をRAM10bの所定領域に格納する。以下、抽出した特徴点を検出特徴点と称す。
ただし、所定領域は、S150で抽出した全特徴点を、最新のものから少なくとも過去数サイクル分、即ち、全特徴点を所定数N(Nは自然数、ここでは、30とする)だけ格納可能なように設定されている。
なお、この特徴点を抽出する処理については、腕部リストに設定された特徴点を抽出するのであれば、例えば、特開2003−109015号に、頭部リストに設定された特徴点を抽出するのであれば、例えば、特開平09−270010号に記載のように周知の技術であるため、ここでの詳しい説明は省略する。
続く、S170では、ROM10aに格納されている候補領域テンプレートを読み出す。すなわち、S170では、全ての物体存在候補領域を読み出す。
そして、S190では、撮影装置15及び熱源カメラ16それぞれの配置位置に基づいて、S150で抽出した全検出特徴点のうち、予め規定された規定点を熱源画像上での座標系に変換する。なお、以下では、撮影画像上での座標系から熱源画像上での座標系に変換された規定点を変換特徴点と称す。
具体的に、S190にて行われる撮影画像での座標系から熱源画像での座標系への変換は、3次元空間に存在する一つの地点を互いに異なる位置に配置した2つの平面に投影した時の位置関係に基づく周知のエピポーラ拘束を用いて行う。このエピポーラ拘束を用いることで、撮影画像上の座標系では、一つの点であった特徴点が、変換特徴点では、奥行きを有した線分として表される。
さらに、S200では、S190にて変換した各変換特徴点を中心に、その変換特徴点から予め規定された範囲内である領域(以下、特徴点領域)を、持込品が存在する可能性のある領域として特定する。
ただし、本実施形態では、規定点として、左右の手首(d3,d6)、左右の耳珠点(fr5,fl5)、左右の口角(fr4、fl4)を規定し、特徴点領域として、図9に示すように、左右の手首それぞれを中心とした手首領域、左右の耳珠点それぞれを中心とした耳珠点領域、左右の口角をまとめた口領域を特定している。
さらに、S210では、熱源画像上において持込品を探索すべき領域(以下、探索領域とする)をRAM10bに記憶し、S230へと進む。
具体的に、本実施形態では、探索領域として、全ての物体存在候補領域と、S200で特定した全特徴点領域とを設定する。ただし、物体存在候補領域と特徴点領域とが重複する場合や、特徴点領域同士が重複する場合、それらの重複する領域を少なくとも含むように、より大きな領域を探索領域の一つとして設定する。
そして、S230では、熱源画像上の各探索領域に、持込品検出用テンプレートを照合して、車室内に実際に存在している持込品を検出し、その検出された持込品に関する情報(以下、存在物体情報とする)を生成する存在物体情報生成処理を実行する。
続く、S250では、S230で生成した存在物体情報に基づいて、ROM10aに格納されている全行動推定モデルの中で、運転者が実行可能な特定行動に対応付けられた行動推定モデルを抽出するモデル絞込処理を実行する。
さらに、S270では、S150にて抽出した検出特徴点と、S250にて抽出された行動推定モデルそれぞれとを照合し、推定行動を検出する推定行動検出処理を実行する。
続くS290では、S270の推定行動検出処理で検出した推定行動に応じて、自車両を安全に走行させるための安全制御処理を実行する。
具体的に、本実施形態の安全制御処理では、S270の推定行動検出処理で検出した推定行動が、予め規定された特定行動である危険行動であれば、現在実行している行動(即ち、危険行動)を中止すべき旨を、ナビゲーション装置21のスピーカーから音声にて出力し、ナビゲーション装置21のモニタに表示させる。
なお、本実施形態における危険行動は、自車両の運転に危険を及ぼす可能性のある特定行動であり、具体的には、電話使用行動や、飲食行動、助手席のシートを操作する操作継続行動及び遷移行動、ルームミラーを操作する操作継続行動及び遷移行動、グローブボックスを操作する操作継続行動及び遷移行動、コンソールボックスを操作する操作継続行動及び遷移行動などが規定されている。
そして、その後、S110へと戻り、自車両の内燃機関が停止されるまで、S110からS290を繰り返す。
〈存在物体情報生成処理〉
次に、行動推定処理のS230にて実行される存在物体情報生成処理について説明する。
ここで、図3は、存在物体情報生成処理の処理手順を示したフローチャートである。
図3に示すように、存在物体情報生成処理は、行動推定処理のS230にて起動されると、まず、S2310では、先のS210にてRAM10bに記憶された探索領域を読み出し、その読み出した探索領域を先のS130で取得した熱源画像上に設定する。
続く、S2320では、ROM10aに格納されている全持込品検出用テンプレートの中から、一つを読み込み、S2330へと進む。ただし、今サイクルの存在物体情報生成処理において、S2320へと2回目以降に進んだ場合には、ROM10aに格納されている全持込品検出用テンプレートの中から、未だに読み込まれていないものを一つ読み込み、S2330へと進む。
そして、S2330では、S2310で設定された全探索領域のうちの一つに、S2320で読み込んだ持込品検出用テンプレートを照合することで、一つの探索領域内に存在する持込品を検出する。ただし、今サイクルの存在物体情報生成処理において、S2330へと2回目以降に進んだ場合には、S2320で読み込んだ持込品検出用テンプレートが未だに照合されていない探索領域に対して、S2320で読み込んだ持込品検出用テンプレートを照合する。
具体的に、本実施形態では、探索領域内の画素の分布(即ち、温度分布)と、持込品検出テンプレートで表された温度分布とを比較し、その温度分布の一致度合いが、予め設定された適合率以上となる画素の分布が探索領域内に存在していれば、その照合した持込品検出用テンプレートに対応する持込品が車室内に存在するものとして検出している。
続くS2340では、S2330にて持込品が検出されたか否かを判定し、判定の結果、持込品が検出されていれば、S2350へと進む。
そのS2350では、S2330で検出された持込品についての情報である存在物体情報を生成して、その後、S2360へと進む。
なお、存在物体情報は、S2330にて検出された持込品毎に生成されるものであり、検出された持込品の種類(以下、物体種類とする)、その持込品が検出された領域名(以下、物体存在領域とする)、その持込品が検出された位置(すなわち、座標、以下、物体存在座標とする)が少なくとも含まれている。
具体的に、本実施形態では、S2330にて用いた持込品検出用テンプレートに対応する持込品の種類をそのまま物体種類とし、S2330にて持込品検出用テンプレートとの照合の対象とした探索領域をそのまま物体存在領域とする。すなわち、S2330にて照合した持込品検出用テンプレートが携帯電話についてのものであれば、携帯電話を物体種類とし、その携帯電話が検出された探索領域が左耳珠領域であれば、物体存在領域を左耳珠点周辺領域としている。
一方、S2340での判定の結果、S2330にて持込品が検出されなければ、即ち、持込品検出用テンプレートの照合対象とした探索領域内に持込品が存在していなければ、S2350を実行することなく、S2360へと進む。
そして、S2360では、S2320で読み込んだ持込品検出用テンプレートを全探索領域に対して照合したか否かを判定し、判定の結果、持込品検出用テンプレートの照合を全探索領域に対して実行していなければ、S2330へと戻る。
そして、S2330へと戻ると、S2320で読み込んだ持込品検出用テンプレートを、未だ照合していない探索領域に対して照合する(即ち、S2320〜S2360を繰り返し実行する)。
一方、S2360での判定の結果、持込品検出用テンプレートの照合を全探索領域に対して実行していれば、S2320で読み込んだ持込品検出用テンプレートに対応付けられた持込品が、車室内に存在しているか否かの判定が終了したものとして、S2370へと進む。
そのS2370では、ROM10aに格納されている全持込品検出用テンプレートを全探索領域に対して照合したか否かを判定し、判定の結果、全持込品検出用テンプレートの照合が終了していなければ、S2320へと戻る。
そして、S2320へと戻ると、ROM10aに格納されている全持込品検出用テンプレートの中から、未だ読み込まれていないものを一つ読み込み、S2330からS2360を繰り返し実行する。
一方、S2370での判定の結果、全持込品検出用テンプレートの照合が終了していれば、本存在物体情報生成処理を終了して、行動推定処理のS250へと戻る。
つまり、本実施形態の存在物体情報生成処理では、熱源画像に対して、持込品検出用テンプレートそれぞれを照合して、その持込品検出用テンプレートにおける温度分布との一致度合いが設定閾値以上となる画素の分布が存在すれば、車室内に持込品が存在するものとして、その持込品についての存在物体情報を生成する。
〈モデル絞込処理〉
次に、行動推定処理のS250にて実行されるモデル絞込処理について説明する。
ここで、図4は、モデル絞込処理の処理手順を示したフローチャートである。
図4に示すように、モデル絞込処理は、起動されると、S2510では、ROM10aに記憶されている全行動推定モデルの中から、基本パターンとして予め規定された複数の行動推定モデルを、検出特徴点と照合する対象である照合対象モデルとして読み込む。
具体的に、本実施形態における基本パターンとしては、特定行動の実行時に持込品の使用が無いことを表す使用有無情報を有した使用物体情報と対応付けられた行動推定モデルが設定されている。すなわち、操作継続行動、遷移行動、タッチ行動を検出するための行動推定モデルが、基本パターンとして設定されている。
続くS2520では、先の存在物体情報生成処理にて、存在物体情報を一つでも生成したか否かを判定し、判定の結果、一つでも存在物体情報を生成していれば、S2530へと進む。
そのS2530では、ROM10aに格納されている全行動推定モデルの中から、予め規定された規定条件を満たす行動推定モデルを抽出して、S2540へと進む。
具体的に、本実施形態では、先の存在物体情報生成処理にて生成された存在物体情報と、使用物体情報とを対比し、その対比の結果、物体種類及び物体存在領域の両方と一致する使用物種類、及び使用物位置が持込品使用時情報に含まれている使用物体情報と対応付けられた行動推定モデルを、規定条件を満たすものとしている。
つまり、S2530では、ROM10aに格納されている行動推定モデルの中から、存在物体情報中の物体種類、及び物体存在領域に応じて、運転者が実行可能な特定行動についての行動推定モデルのみを抽出している。
また、S2550では、S2530にて抽出した行動推定モデルを照合対象モデルとして、基本パターンに追加し、その後、S2560へと進む。
なお、S2520での判定の結果、存在物体情報が一つも生成されていない場合には、基本パターンとして設定されている行動推定モデルに対応する特定行動のみを運転者が実行可能であるものとして、S2530及びS2550を実行すること無く、S2560へと進む。
そのS2560では、このS2560へと進んだ時点で、照合対象モデルとして読み込んでいる行動推定モデルを、推定行動検出処理で検出特徴点と実際に照合するモデルとして確定する。
具体的に、本実施形態では、RAM10bに予め用意された抽出リストに、照合対象モデルとして読み込んだ各行動推定モデルを登録する。
そして、その後、本モデル絞込処理を終了し、行動推定処理のS270(推定行動検出処理)へと戻る。
つまり、本実施形態のモデル絞込処理では、特定行動の実行時に持込品を使用しない基本パターンと、車室内に存在する持込品を用いて乗員が実行可能な特定行動に対応する行動推定モデルとに、推定行動検出処理にて検出特徴点と照合する行動推定モデルを絞り込む。
〈推定行動検出処理〉
次に、行動推定処理のS270にて実行される推定行動検出処理について説明する。
ここで、図5は、推定行動検出処理の処理手順を示したフローチャートである。
図5に示すように、推定行動検出処理は、起動されると、まず、S2710にて、RAM10bの所定領域に格納されている全特徴点を読み出し、各特徴点の軌跡(以下、実動作軌跡とする)を特定する。さらに、先の存在物体情報生成処理にて存在物体情報が生成されていれば、物体存在座標に基づいて、運転者が特定行動を実行することによって持込品が移動した軌跡(以下、物体軌跡とする)を導出する。そして、その後、S2720へと進む。
そして、S2720では、抽出リストに登録されている全行動推定モデルの中から、一つの行動推定モデルを読み込む。この時、読み込んだ行動推定モデルと対応する使用物体情報に持込品使用時情報が含まれていれば、その持込品使用時情報中の持込品軌跡も読み込む。そして、その後、S2730へと進む。
さらに、S2730では、S2720で読み込んだ行動推定モデル中の特徴点軌跡と、S2710で特定された実動作軌跡とのなす角(以下、判定角度と称す)を算出する。この時、S2710で物体軌跡が導出され、かつS2720で持込品軌跡が読み込まれていれば、物体軌跡と持込品軌跡とのなす角(以下、持込品軌跡角度とする)も算出する。そして、その後、S2740へと進む。
また、S2740では、S2720にて読み込まれていない行動推定モデルが抽出リストに存在しているか否かを判定し、判定の結果、読み込まれていない行動推定モデルが抽出リストに存在していれば、S2720へと戻る。
ただし、今サイクルの推定行動検出処理において、S2720へと2回目以降に進んだ場合には、判定角度の算出に未だ用いていない行動推定モデルを抽出リストから読み込む。
一方、S2740での判定の結果、読み込まれていない行動推定モデルが抽出リストに存在しなければ、即ち、抽出リストに登録されている全行動推定モデルを用いて判定角度を算出していれば、S2750へと進む。そのS2750では、全判定角度の中から、最小の角度である最小判定角度を特定する。
続く、S2760では、最小判定角度が、予め設定された設定閾値未満であるか否かを判定し、判定の結果、最小判定角度が設定閾値以上であれば、運転者が実行している行動が、行動推定モデルと対応付けられた特定行動以外であるものとして、S2770へと進む。
そのS2770では、特定行動毎に予め用意されている特定行動フラグを全てローレベルに設定し、S2790へと進む。
一方、S2760での判定の結果、最小判定角度が設定閾値未満であれば、最小判定角度を算出するために用いた行動推定モデルと対応付けられた特定行動を、運転者が実行している可能性が最も高い特定行動であるものとして、S2780へと進む。
以下では、最小判定角度を算出するために用いた行動推定モデルと対応付けられた特定行動を、推定行動候補とする。ただし、S2730にて持込品軌跡角度が算出されている場合、最小判定角度が設定閾値未満であることに加えて、最小判定角度と同時に算出された持込品軌跡角度が予め規定された規定閾値未満であれば、最小判定角度を算出するために用いた行動推定モデルと対応付けられた特定行動を、推定行動候補とする。
そのS2780では、推定行動候補についての特定行動フラグをハイレベルに設定して、S2790へと進む。
そのS2790では、推定行動候補が確実に実行されている行動であるか否かを判定し、判定の結果、推定行動候補が確実に実行されていれば、その推定行動候補を推定行動として確定する推定行動確定処理を実行する。
具体的に、本実施形態の推定行動確定処理では、ハイレベルである特定行動フラグに従って、予め規定された数サイクル連続して、同一の特定行動である推定行動候補が検出されたか否かを判定し、判定の結果、数サイクル連続して同一の特定行動である推定行動候補が検出された場合に、その推定行動候補が確実に実行されているものと判定している。
そして、その後、行動推定処理のS140へと戻る。
つまり、本実施形態の推定行動検出処理では、抽出リストに登録されている行動推定モデルの特徴点軌跡それぞれと、実動作軌跡とのなす判定角度のうち、最小判定角度が設定閾値未満であれば、最小判定角度を求めるために用いた行動推定モデルに対応する特定行動を推定行動候補としている。そして、推定行動候補が、数サイクル連続して同一である場合に、その推定行動候補を推定行動として検出している。
以上、説明したように、本実施形態の行動推定処理では、熱源画像を画像処理することことで生成した存在物体情報に基づいて、ROM10aに格納されている全行動推定モデルの中から、運転者が実行可能な特定行動に対応する行動推定モデルを照合対象モデルとして絞り込んでいる。そして、絞り込まれた行動推定モデルと、撮影画像から検出した検出特徴点とを照合することで、推定行動を検出している。
[実施形態の効果]
これにより、本実施形態の行動推定システム1では、存在物体情報に応じて、乗員が実行可能な特定行動に対応する行動推定モデルのみに照合対象モデルを絞り込んでいるため、従来の行動推定装置に比べて、検出特徴点を照合する行動推定モデルの数が削減され、運転者が実行している特定行動を検出するまでに要する時間を短縮することができる。
また、本実施形態の行動推定システム1によれば、車室内に存在する持込品の種類、及び位置に基づいて、乗員が実行可能な特定行動を絞り込んだ上で、推定行動を検出しているため、運転者が実行している特定行動を他の特定行動として認識する等の誤検出を低減できる。
しかも、本実施形態の行動推定システム1では、持込品が車室内に存在しているか否かにに拘わらず、運転者が実行する可能性のある特定行動(即ち、持込品を使用する必要のない特定行動)に対応する行動推定モデルを抽出しているため、推定行動の検出精度が低下することを防止することができる。
そして、本実施形態の行動推定システム1によれば、存在物体情報が生成可能であれば、実動作軌跡を特徴点軌跡と照合することに加えて、物体軌跡を持込品軌跡と照合することで、推定行動を検出しているため、推定行動の検出精度をより向上させることができる。
なお、本実施形態の行動推定システム1によれば、運転者が実行している特定行動を早期に検出するため、従来行動推定装置に比べて、安全制御の開始までに要する時間を短縮することができる。
特に、行動推定システム1によれば、推定行動が危険行動である場合に、危険行動を中止するように促すため、自車両をより安全に操縦させることができる。
これらの結果、行動推定システム1によれば、自車両の安全な走行を実現することができる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限るものではなく、本発明の要旨を逸脱しない範囲において様々な態様にて実施することができる。
例えば、上記実施形態では、車室内に存在する持込品の種類、及び位置を検出するために、熱源カメラ16にて生成した熱源画像を用いていたが、車室内に存在する持込品の種類、及び位置を検出する方法は、これに限るものではない。
この熱源カメラ16にて生成した熱源画像を用いることなく車室内に存在する持込品の種類、及び位置を検出する方法としては、カラー画像の色を解析する方法や、車室内に存在する物体の水分含有量を求める方法が考えられる。
ただし、前者の方法であれば、熱源カメラ16に換えて、カラー画像を撮影可能な撮影装置が自車両に搭載されている必要がある。また、後者の方法であれば、車室内に電波を照射し、反射波を解析して水分含有量を求めるレーダ分析装置が自車両に搭載されている必要がある。
ところで、上記実施形態のモデル絞込処理におけるS2530では、車室内に存在する持込品を用いて乗員が実行可能な特定行動(以下、持込品使用行動とする)に対応する行動推定モデルを絞り込むための規定条件として、物体種類及び物体存在領域の両方と一致する使用物種類、及び使用物位置が持込品使用時情報に含まれていることとしていたが、規定条件は、これに限るものではない。
規定条件としては、例えば、物体種類と使用物種類とのみが一致することでも良いし、持込品の使用があることを表す使用有無情報が含まれていることでも良い。
また、上記実施形態のモデル絞込処理では、操作継続行動、遷移行動、タッチ行動を検出するための行動推定モデルを、基本パターンとしていたが、基本パターンは、これに限るものではなく、例えば、操作継続行動、遷移行動を検出するための行動推定モデルだけでも良いし、操作継続行動、遷移行動、タッチ行動のうちの一部の特定行動を検出するための行動推定モデルだけでも良い。
さらには、上記実施形態のモデル絞込処理では、持込品使用行動に対応する行動推定モデルを、基本パターンに加えて、照合対象モデルとしていたが、照合対象モデルは、これに限るものではなく、持込品使用行動に対応する行動推定モデルだけを照合対象モデルとしても良い。
また、上記実施形態の推定行動検出処理では、存在物体情報生成処理にて存在物体情報を生成可能であれば、実動作軌跡を特徴点軌跡と照合することに加えて、物体軌跡を持込品軌跡と照合することで、推定行動を検出していたが、推定行動の検出は、これに限るものではなく、存在物体情報生成処理にて存在物体情報を生成可能であるか否かに拘わらず、実動作軌跡を特徴点軌跡と照合することのみによって実行されてもよい。
ところで、上記実施形態では、開始位置、終端位置、特徴点軌跡からなるものとして行動推定モデルを構成していたが、行動推定モデルの構成は、これに限るものではない。
例えば、車載機器や、持込品を操作する操作行動を検出するための行動推定モデルであれば、操作行動を実行した運転者の各特徴点が帰着する位置(以下、目標地点とする)と、操作行動を実行したとみなせる運転者の各特徴点が位置する領域(以下、帰着領域とする)と、その操作行動を実行しようとする運転者の各特徴点が通過する領域(以下、通過領域とする)と、その操作行動を実行しようとする運転者の各特徴点が通過領域内を通過する時の方向の範囲(以下、検出許容範囲とする)とから構成されていても良い。
また、肩回し行動や、腕回し行動等を検出するための行動推定モデルであれば、その特定行動を実行中である運転者の連続的に変化する各特徴点が位置する複数の地点(以下、特定点とする)と、各特定点毎に設けられ、それぞれの特定点を中心に、特定行動を実行中である運転者の各特徴点が位置する可能性のある領域(以下、許容領域とする)とから構成されていても良い。
このように行動推定モデルが構成されている場合、各検出特徴点の位置が、帰着領域(もしくは、通過領域)や、許容領域内であるか否か、及び各検出特徴点の動きベクトルが検出許容範囲内であるか否かに基づいて、推定行動を検出する必要がある。
なお、上記実施形態の行動推定処理におけるS190では、撮影画像上の検出特徴点を、熱源画像上の変換特徴点へと変換するためにエピポーラ拘束を用いたが、この変換は、エピポーラ拘束を用いた方法に限るものではない。例えば、撮影装置15の配置位置と、熱源カメラ16の配置位置とに基づく対応関係を表すテーブルを用いて変換を行っても良い。つまり、3次元空間に存在する一つの地点を互いに異なる位置に配置した2つの平面に投影した時の位置関係に基づいて変換されれば、どのような方法であっても良い。
また、上記実施形態における安全制御処理では、ナビゲーション装置21のスピーカや、モニタを用いて、運転者に警告を発していたが、安全制御処理の処理内容は、これに限るものではない。
例えば、CPU10cが空調制御装置22に制御指令を出力して、空気調和装置から運転者に冷風を吹き付ける冷風送気制御を実行しても良いし、CPU10cがシートベルト巻上装置23に制御指令を出力して、シートベルト巻上装置23がシートベルトの拘束力を増加させるようにしても良い。さらには、CPU10cがブレーキ制御装置24に制御指令を出力して、ブレーキ制御装置24が自車両の制動力を増加させるようにしても良いし、CPU10cがパワートレイン制御装置25に制御指令を出力して、パワートレイン制御装置25が自車両を減速させるようにしても良いし、それらを任意で組合わせても良い。
つまり、安全制御処理では、推定行動が危険行動である場合に、その危険行動を実行することが危険であることを運転者に認識させ、自車両が安全に運転されるように制御するのであれば、どのような処理を行っても良い。
そして、上記実施形態における安全制御処理では、推定行動が危険行動である場合にのみ、安全制御を実行していたが、安全制御は、推定行動が危険行動であるか否かに拘わらず実行しても良い。この場合、推定行動検出処理にて検出された推定行動の内容に応じて、制御内容が変更されることが望ましい。
なお、上記実施形態において、行動推定システム1は、自動車に搭載されていたが、行動推定システム1が搭載されるものは、自動車に限るものではなく、例えば、航空機や船舶、電車などの移動体に、行動推定システム1が搭載されていても良い。
そして、上記実施形態の行動推定システム1では、推定行動の検出対象となる人物は、運転者であったが、推定行動の検出対象となる人物は、これに限るものではなく、助手席に着座した人物であっても良い。
[本発明と実施形態との対応]
上記実施形態の行動推定処理におけるS110を実行することで得られる機能が、本発明の撮影画像取得手段に相当し、行動推定処理のS150を実行することで得られる機能が、本発明の特徴点検出手段に相当し、画像処理プロセッサ10のROM10aが、本発明の行動推定モデル格納手段に相当する。
そして、上記実施形態の存在物体情報生成処理を実行することで得られる機能が、本発明の物体情報取得手段に相当し、モデル絞込処理を実行することで得られる機能が、本発明のモデル抽出手段に相当し、推定行動検出処理を実行することで得られる機能が、本発明の推定行動検出手段に相当する。
さらに、上記実施形態の存在物体情報生成処理におけるS2330を実行することで得られる機能が、本発明の存在物体検出手段及び物体位置検出手段に相当し、存在物体情報生成処理のS2350を実行することで得られる機能が、本発明の存在物体情報生成手段に相当する。
また、上記実施形態の行動推定処理におけるS130を実行することで得られる機能が、本発明の熱源画像取得手段に相当し、行動推定処理のS290を実行することで得られる機能が、本発明の安全制御手段に相当する。
本発明が適用された行動推定システムの概略構成を示すブロック図である。 行動推定処理の処理手順を示したフローチャートである。 存在物体情報生成処理の処理手順を示したフローチャートである。 モデル絞込処理の処理手順を示したフローチャートである。 推定行動検出処理の処理手順を示したフローチャートである。 腕部に設定された特徴点を例示した説明図である。 顔面に設定された特徴点を例示した説明図である。 撮影画像について例示した説明図である。 特徴点領域について例示した説明図である。 特定行動のうち、電話使用行動について例示した説明図である。 特定行動のうち、飲食行動、及び喫煙行動について例示した説明図である。 特定行動のうち、タッチ行動について例示した説明図である。 行動推定モデル、及び使用物体情報について例示した説明図である。 行動推定モデル、及び使用物体情報について例示した説明図である。
符号の説明
1…行動推定システム 10…画像処理プロセッサ 10a…ROM 10b…RAM 10c…CPU 15…撮影装置 20…制御対象装置群 21…ナビゲーション装置 22…空調制御装置 23…シートベルト巻上装置 24…ブレーキ制御装置 25…パワートレイン制御装置

Claims (9)

  1. 移動体に搭載され、乗員の行動を推定する行動推定装置であって、
    乗員が撮影された撮影画像を繰り返し取得する撮影画像取得手段と、
    乗員の身体上に予め設定された少なくとも一つのポイントを特徴点とし、前記撮影画像取得手段で撮影画像が取得される毎に、その撮影画像に写り込んだ人物の特徴点の位置である検出特徴点を検出する特徴点検出手段と、
    前記乗員が実行する可能性のある行動それぞれを特定行動とし、各特定行動毎に予め生成され、前記特定行動を実行する時の前記特徴点の位置からなる行動推定モデルを、その特定行動時に使用する物体それぞれに関する情報である使用物体情報と対応付けて格納する行動推定モデル格納手段と、
    前記移動体内に存在する可能性のある物体それぞれに関する情報である存在物体情報を取得する物体情報取得手段と、
    前記物体情報取得手段で取得された存在物体情報それぞれに基づいて、前記行動推定モデル格納手段に格納された行動推定モデルの中から、前記乗員が実行可能な特定行動に対応する行動推定モデルを抽出するモデル抽出手段と、
    前記特徴点検出手段で検出された検出特徴点を、前記モデル抽出手段で抽出された行動推定モデルそれぞれと照合し、最も適合率の高い前記行動推定モデルに対応する特定行動を推定行動として検出する推定行動検出手段と
    を備えることを特徴とする行動推定装置。
  2. 前記存在物体情報それぞれ、及び前記使用物体情報それぞれには、少なくとも一つの項目が含まれており、
    前記モデル抽出手段は、
    規定された項目である規定項目が前記存在物体情報と一致する前記使用物体情報と対応付けられた前記行動推定モデルを抽出することを特徴とする請求項1に記載の行動推定装置。
  3. 前記規定項目は、
    前記物体の有無、前記物体の種類、前記物体が存在する位置、前記物体の軌跡のうち、少なくとも一つであることを特徴とする請求項2に記載の行動推定装置。
  4. 前記使用物体情報それぞれには、前記特定行動に物体を用いるか否かが含まれており、
    前記モデル抽出手段は、
    前記存在物体情報の内容に拘わらず、前記物体を用いないことを表す前記使用物体情報と対応付けられた前記行動推定モデルを常に抽出することを特徴とする請求項1ないし請求項3のいずれかに記載の行動推定装置。
  5. 前記移動体内における物体の有無を検出する存在物体検出手段と、
    前記物体検出手段で検出の結果、前記物体が存在する場合、各物体の位置を検出する物体位置検出手段と、
    前記存在物体検出手段、及び前記物体位置検出手段での検出結果に基づいて、前記存在物体情報を生成する存在物体情報生成手段と
    を備え、
    前記物体情報取得手段は、
    前記存在物体情報生成手段で生成された存在物体情報を取得することを特徴とする請求項1ないし請求項5のいずれかに記載の行動推定装置。
  6. 前記移動体内の温度分布が写り込んだ熱源画像を取得する熱源画像取得手段を備え、
    前記物体検出手段、及び前記物体位置検出手段それぞれは、
    前記物体の種類毎に予め生成された物体モデルを、前記熱源画像取得手段で取得した熱源画像と照合することにより、前記物体の有無、及び前記物体の位置を検出することを特徴とする請求項5に記載の行動推定装置。
  7. 前記推定行動検出手段で検出された推定行動に応じて、移動体が安全に操縦されるための安全制御を実行する安全制御手段
    を備えることを特徴とする請求項1ないし請求項6のいずれかに記載の行動推定装置。
  8. 前記特定行動のうち、乗員が実行すると前記移動体の操縦に悪影響を及ぼす可能性のある行動を危険行動とし、
    前記安全制御手段は、
    前記推定行動検出手段で検出された推定行動が前記危険行動であれば、その危険行動を中止すべき旨を報知することを前記安全制御として実行することを特徴とする請求項7に記載の行動推定装置。
  9. コンピュータを、請求項1ないし請求項8のいずれかに記載の行動推定装置を構成する各手段として機能させるためのプログラム。
JP2008203100A 2008-08-06 2008-08-06 行動推定装置、プログラム Expired - Fee Related JP5217754B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008203100A JP5217754B2 (ja) 2008-08-06 2008-08-06 行動推定装置、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008203100A JP5217754B2 (ja) 2008-08-06 2008-08-06 行動推定装置、プログラム

Publications (2)

Publication Number Publication Date
JP2010036762A true JP2010036762A (ja) 2010-02-18
JP5217754B2 JP5217754B2 (ja) 2013-06-19

Family

ID=42009752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008203100A Expired - Fee Related JP5217754B2 (ja) 2008-08-06 2008-08-06 行動推定装置、プログラム

Country Status (1)

Country Link
JP (1) JP5217754B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
JP2015001979A (ja) * 2013-06-14 2015-01-05 由田新技股▲ふん▼有限公司 車両運転用の警告方法および車両用の電子装置
JP2017505477A (ja) * 2013-12-30 2017-02-16 アルカテル−ルーセント ドライバ行動監視システムおよびドライバ行動監視のための方法
WO2018150569A1 (ja) * 2017-02-20 2018-08-23 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2018156539A (ja) * 2017-03-21 2018-10-04 三菱自動車工業株式会社 警告装置
DE102018123112A1 (de) 2017-09-22 2019-03-28 Aisin Seiki Kabushiki Kaisha Bildverarbeitungsvorrichtung und Programm
WO2021044567A1 (ja) * 2019-09-05 2021-03-11 三菱電機株式会社 操作者判定装置および操作者判定方法
JP2022501713A (ja) * 2019-03-29 2022-01-06 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. 動作認識方法及び装置、電子機器、並びに記憶媒体
WO2023090274A1 (ja) * 2021-11-18 2023-05-25 オムロン株式会社 作業認識装置、作業認識方法、及び作業認識プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09270010A (ja) * 1996-04-01 1997-10-14 Nissan Motor Co Ltd 顔画像の特徴量認識装置
JP2003109015A (ja) * 2001-10-01 2003-04-11 Masanobu Yamamoto 身体動作測定方式
JP2005018655A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 運転者行動推定装置
JP2005202653A (ja) * 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
JP2005205943A (ja) * 2004-01-20 2005-08-04 Omron Corp 運転中における電話使用時の車輌制御装置及び電話使用検出方法
JP2009037534A (ja) * 2007-08-03 2009-02-19 Denso Corp 行動推定装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09270010A (ja) * 1996-04-01 1997-10-14 Nissan Motor Co Ltd 顔画像の特徴量認識装置
JP2003109015A (ja) * 2001-10-01 2003-04-11 Masanobu Yamamoto 身体動作測定方式
JP2005018655A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 運転者行動推定装置
JP2005202653A (ja) * 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
JP2005205943A (ja) * 2004-01-20 2005-08-04 Omron Corp 運転中における電話使用時の車輌制御装置及び電話使用検出方法
JP2009037534A (ja) * 2007-08-03 2009-02-19 Denso Corp 行動推定装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
JP2015001979A (ja) * 2013-06-14 2015-01-05 由田新技股▲ふん▼有限公司 車両運転用の警告方法および車両用の電子装置
US10417486B2 (en) 2013-12-30 2019-09-17 Alcatel Lucent Driver behavior monitoring systems and methods for driver behavior monitoring
JP2017505477A (ja) * 2013-12-30 2017-02-16 アルカテル−ルーセント ドライバ行動監視システムおよびドライバ行動監視のための方法
WO2018150569A1 (ja) * 2017-02-20 2018-08-23 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JPWO2018150569A1 (ja) * 2017-02-20 2019-12-12 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2018156539A (ja) * 2017-03-21 2018-10-04 三菱自動車工業株式会社 警告装置
DE102018123112A1 (de) 2017-09-22 2019-03-28 Aisin Seiki Kabushiki Kaisha Bildverarbeitungsvorrichtung und Programm
JP2022501713A (ja) * 2019-03-29 2022-01-06 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. 動作認識方法及び装置、電子機器、並びに記憶媒体
JP7130856B2 (ja) 2019-03-29 2022-09-05 北京市商▲湯▼科技▲開▼▲發▼有限公司 動作認識方法及び装置、電子機器、並びに記憶媒体
WO2021044567A1 (ja) * 2019-09-05 2021-03-11 三菱電機株式会社 操作者判定装置および操作者判定方法
JPWO2021044567A1 (ja) * 2019-09-05 2021-03-11
JP7003335B2 (ja) 2019-09-05 2022-01-20 三菱電機株式会社 操作者判定装置および操作者判定方法
WO2023090274A1 (ja) * 2021-11-18 2023-05-25 オムロン株式会社 作業認識装置、作業認識方法、及び作業認識プログラム

Also Published As

Publication number Publication date
JP5217754B2 (ja) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5217754B2 (ja) 行動推定装置、プログラム
JP6751436B2 (ja) 自律走行車両へのアクセス及び運転制御
JP4420081B2 (ja) 行動推定装置
WO2017038485A1 (ja) 電子キーシステム
US10255485B2 (en) Identification device, identification method, and recording medium recording identification program
JP6782283B2 (ja) 監視システム
CN107215269A (zh) 用于控制机动车辆的内部照明的装置
JP7091983B2 (ja) 機器制御装置
JP4613999B2 (ja) 行動推定装置、プログラム
JP2023086816A (ja) 自動車及び歩容認識システム
JP4683123B2 (ja) 行動推定装置、プログラム
US20150092994A1 (en) Eligible operator determination device and eligible operator determination method
JP4882930B2 (ja) 行動推定装置
JP6973019B2 (ja) 走行支援システム及び車載装置
US10870436B2 (en) Operation assistance system and operation assistance method
JP2010044493A (ja) 行動推定装置、プログラム
JP7375611B2 (ja) 操作装置
JP2021135843A (ja) 操作装置
WO2017017938A1 (ja) ジェスチャ操作システム、方法およびプログラム
JP6909986B2 (ja) 識別装置
JP2021135842A (ja) 操作装置
CN110497910A (zh) 驾驶辅助系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5217754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees