JP4670803B2 - 操作推定装置およびプログラム - Google Patents

操作推定装置およびプログラム Download PDF

Info

Publication number
JP4670803B2
JP4670803B2 JP2006327403A JP2006327403A JP4670803B2 JP 4670803 B2 JP4670803 B2 JP 4670803B2 JP 2006327403 A JP2006327403 A JP 2006327403A JP 2006327403 A JP2006327403 A JP 2006327403A JP 4670803 B2 JP4670803 B2 JP 4670803B2
Authority
JP
Japan
Prior art keywords
human body
estimation
body feature
operation target
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006327403A
Other languages
English (en)
Other versions
JP2008140268A (ja
Inventor
貴洋 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2006327403A priority Critical patent/JP4670803B2/ja
Priority to US11/987,800 priority patent/US8077970B2/en
Publication of JP2008140268A publication Critical patent/JP2008140268A/ja
Application granted granted Critical
Publication of JP4670803B2 publication Critical patent/JP4670803B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Description

本発明は、操作者が実施しようとしている操作内容を推定するための操作推定装置に関する。
近年、人間の姿勢などを推定する技術として、次のような技術が提案されている。
それは、画像中の人間に対応する領域に、身体を模擬的に表現してなる身体モデルを、その人間の姿勢に合わせて重ね合わせ、その身体モデルにおける人体特徴点の位置(座標)それぞれを特定することにより、その人体特徴点の配置に基づいて人間の姿勢などを推定する、といった技術である(特許文献1参照)。
特開2003−109015号公報
しかし、上述した技術では、人間の姿勢などを推定することはできても、例えば、その人間が何らかの操作対象を操作しようとしているか否か、どの操作対象を操作しようとしているのか、といったことまで推定することはできなかった。
本発明は、このような課題を解決するためになされたものであり、その目的は、操作者が操作対象を操作しようとしているか否か、および、どの操作対象を操作しようとしているのか、といったことを推定できるようにするための技術を提供することである。
上記課題を解決するため請求項1に記載の操作推定装置は、複数の操作対象,および,該操作対象を操作可能な位置に存在する操作者を含む画像を繰り返し取得する画像取得手段と、該画像取得手段により繰り返し取得される画像毎に、該画像に含まれる操作者における所定の人体特徴点を特定する人体特徴点特定手段と、該人体特徴点特定手段により特定された画像毎の人体特徴点それぞれに基づいて、操作者が実施しようとしている操作内容を推定する操作推定手段と、を備えている。
そして、該操作推定手段は、操作対象を操作する操作者が辿ると推定される姿勢軌跡(推定姿勢軌跡)をその操作内容毎にモデル化してなる遷移推定モデルそれぞれと、前記人体特徴点特定手段により特定された画像毎の人体特徴点それぞれから求められる操作者の姿勢軌跡(実姿勢軌跡)とを照合し、前記遷移推定モデルでモデル化された推定姿勢軌跡のうち、前記実姿勢軌跡との近似度が所定のしきい値を満たす前記推定姿勢軌跡につき、該推定姿勢軌跡に対応する操作内容を操作者が実施しようとしていると推定する。
このように構成された操作推定装置によれば、操作者による実際の姿勢軌跡である実姿勢軌跡を、遷移推定モデルにおける姿勢軌跡である推定姿勢軌跡それぞれと照合し、所定のしきい値を満たす近似度となっている推定姿勢軌跡があることをもって、操作者が操作対象を操作しようとしていると推定できる。さらに、その近似の条件を満たす推定姿勢軌跡に対応する操作内容を操作者が実施しようとしていると推定できる。
この構成における人体特徴点特定手段は、特許文献1に記載されている手法を用いて特定することとすればよい。具体的にいうと、画像中の操作者に対応する領域に、身体を模擬的に表現してなる身体モデルを、その操作者の姿勢に合わせて重ね合わせ、その身体モデルにおける1以上の人体特徴点の位置それぞれ(以降、1つの画像から特定される1以上の人体特徴点を単に「人体特徴点」という)を特定する、といった手法である。
また、操作推定手段は、実姿勢軌跡を推定姿勢軌跡それぞれと照合した結果、近似度がしきい値を満たす推定姿勢軌跡が複数存在している場合、それらのうちいずれかの推定姿勢軌跡(例えば、近似度が最大または最小の推定姿勢軌跡)に基づいて操作内容を推定することとすればよい。
また、この構成においては、請求項2に記載の操作推定装置のように構成してもよい。この操作推定装置において、前記操作推定手段は、前記推定姿勢軌跡をその操作内容毎にモデル化してなる遷移推定モデルそれぞれ,および,特定の操作対象を継続的に操作する操作者がとると推定される姿勢点(推定姿勢点)をその操作対象毎にモデル化してなる停留推定モデルそれぞれと、前記実姿勢軌跡とを照合し、前記遷移推定モデルでモデル化された推定姿勢軌跡のうち、前記実姿勢軌跡との近似度が所定のしきい値を満たす前記推定姿勢軌跡,または,前記推定姿勢点につき、その推定姿勢軌跡に対応する操作内容を操作者が実施しようとしている,または,その推定姿勢点に対応する操作対象を操作していると推定する。
このように構成すれば、操作者による実際の姿勢軌跡である実姿勢軌跡(または,この姿勢軌跡を形成する姿勢点)を、遷移推定モデルにおける姿勢軌跡である推定姿勢軌跡それぞれ,および,停留推定モデルにおける姿勢点である推定姿勢点それぞれと照合し、しきい値を満たす近似度となっている推定姿勢軌跡または推定姿勢点があれば、その推定姿勢軌跡に対応する操作内容を操作者が実施しようとしている,その姿勢点に対応する操作対象を操作している,と推定できる。
また、上述した操作推定手段により操作者が実施しようとしている操作内容,または,操作者が操作している操作対象が推定された場合には、その推定結果に対応する操作の実施(操作しようとしている操作対象または操作している操作対象の操作)をサポートするようにすれば、その操作内容を先回りしてサポートする,または,継続されている操作をサポートすることができる。
このためには、上記構成を、例えば、請求項3に記載のように、前記操作推定手段による推定結果に対応する操作対象について、該操作対象への操作を補助する操作補助手段を備えたものとすることが考えられる。
このように構成すれば、操作者が実施しようとしている操作内容を先回りしてサポートでき、または、操作者が実施している操作を継続的にサポートすることができるため、その操作の実施を容易なものとすることができて好適である。
上述した構成において、操作補助手段により操作内容をサポートするための具体的な構成は特に限定されない。
例えば、複数の操作対象それぞれに対し、該操作対象の向きを変更することのできる変更機構が設けられている場合であれば、次のように構成することが考えられる。それは、前記操作推定手段による推定結果に対応する操作対象について、該操作対象に対応する前記変更機構を制御して該操作対象の向きを操作者側へ向けることにより、その操作を補助する、といった構成である。
この場合、操作者が操作しようとした操作対象の向きを、その操作者側へ向けることができるため、その操作対象をより操作しやすいものとすることができる。
また、操作補助手段により操作内容をサポートするための別の構成としては、複数の操作対象それぞれに対し、該操作対象の一部または全体を振動させることのできる振動機構が設けられている場合であれば、次のように構成することが考えられる。それは、前記操作推定手段により推定された操作内容において操作されるべき操作対象について、該操作対象に対応する前記振動機構を制御して該操作対象の一部または全体を振動させ、その位置を触覚的に認識できるようにすることにより、その操作を補助する、といった構成である。
この場合、操作者が操作しようとした操作対象の一部または全体が振動するため、その振動により操作対象の位置を認識できるようになる結果、操作者の手などを触覚的に操作対象の位置まで導くことができる。
また、操作補助手段により操作内容をサポートするための別の構成としては、1以上の操作対象それぞれに対し、該操作対象を照らすことのできる位置関係で配置されたランプが設けられている場合であれば、次のように構成することが考えられる。それは、前記操作推定手段による推定結果に対応する操作対象について、該操作対象に対応するランプの明るさを他のランプよりも明るくすることにより、その操作を補助する、といった構成である。
より具体的にいうと、請求項4に記載のように構成することが考えられる。それは、前記操作推定手段による推定結果に対応する操作対象について、該操作対象に対応するランプを点灯させて該操作対象を照らすことにより、その操作を補助する、といった構成である。
この場合、操作者が操作しようとした操作対象がランプにより照らされるため、その操作対象の位置を視認しやすくなる結果、操作者の手などを視覚的に操作対象の位置まで導くことができる。
また、操作補助手段により操作者が実施しようとしている操作内容をサポートするための別の構成としては、1以上の操作対象の中に、カバーを開閉して内部に収容物を収容可能な収容操作対象が含まれており、該収容操作対象が前記カバーを開閉するための開閉機構を備えている場合であれば、請求項5に記載のように構成することが考えられる。
それは、前記操作推定手段により推定された操作内容において操作されるべき操作対象が前記収容操作対象である場合、該収容操作対象における開閉機構を制御して前記カバーを開放させることにより、その操作を補助する、といった構成である。
この場合、操作者が収容操作対象を操作しようとした場合に、その収容操作対象におけるカバーを先回りして開放することができるため、その内部に収容物を収容しようとする,または,その内部から収容物を取り出そうとする動作の一部を省略させることができる。
また、この構成において、操作補助手段は、請求項6に記載のように、前記操作推定手段による推定結果に対応する操作対象が、前記収容操作対象以外である場合であって、すでに該収容操作対象の前記カバーが開放されている場合、該収容操作対象における開閉機構を制御して前記カバーを閉鎖させる、ように構成するとよい。
このように構成すれば、収容操作対象のカバーが開放した状態で、操作者が他の操作対象の操作を実施しようとしている,または,操作対象の操作を実施しようとしていない場合に、その収容操作対象のカバーを自動的に閉鎖させることができる。
ところで、上述した各操作推定装置は、種々の装置に搭載した状態で使用することが考えられる。具体的な例としては、例えば、請求項7に記載のように、車両に搭載された状態で使用することが考えられる。この場合、画像取得手段は、車両における1以上の操作対象,および,車両における座席に存在する操作者を含む画像を繰り返し取得する、こととなる。
このように構成すれば、車両室内における操作対象それぞれの操作が行われることを推定することができるようになる。
なお、この構成における操作対象とは、例えば、車両室内におけるステアリング,助手席のシート,ルームミラー,センタパネル右ブロア,センタパネル左ブロア,グローブボックス,コンソールボックス,ナビゲーション装置,空調装置,シフトレバーなどのことである。
また、このように操作推定装置を車両に搭載した状態で使用する場合は、操作対象を操作する,または,操作を継続することが、車両周辺の状況に照らして適切ではないことがある。例えば、1以上の操作対象のうちのステアリングおよびシフトレバー以外の操作対象が操作されている状態で、車両に物体が相対的に接近してきているような場合である。
この場合、運転者(運転席の操作者)がその操作対象の操作に集中して接近する物体の存在に気付いていないと、その物体に衝突してしまう恐れがあるため、その存在に気付かせるべく、上述した各構成を、例えば、請求項8に記載の操作推定装置のように構成すればよい。
この操作推定装置は、前記車両へと相対的に接近する物体が存在しているか否かを検出する接近検出手段と、前記操作推定手段による推定結果に対応する操作対象がステアリングおよびシフトレバー以外となっている状況で、前記物体検出手段により物体の接近が検出された際に、その操作対象に対する操作を中断すべき旨を報知する第1中断報知手段と、を備えている。
このように構成すれば、ステアリングおよびシフトレバー以外の操作対象が操作される,または,操作されている状態で、車両に相対的に物体が接近している場合に、その操作対象に対する操作を中断すべき旨を報知することができる。そのため、例えば、運転者がその操作対象の操作に集中していたとしても、その報知により、接近する物体の存在に気付かせて、その物体に衝突してしまうことを回避するように運転を実施させることができる。
また、上述した各操作推定装置が車両に搭載されている場合に、操作対象を操作する,または,操作を継続することが、車両周辺の状況に照らして適切ではない場合としては、1以上の操作対象のうちのステアリングおよびシフトレバー以外の操作対象が操作されている状態で、車両前方の信号が「青」の表示になっている状態や踏切における遮断機が上がっている状態のように車両を発進させるべき交通事情となっている場合も考えられる。
この場合、運転者がその操作対象の操作に集中して、車両前方の信号が「青」の表示になっていることや遮断機が上がっていることに気付いていないと、交通の妨げとなってしまう恐れがあるため、そのことに気付かせるべく、上述した各構成を、例えば、請求項9に記載の操作推定装置のように構成すればよい。
この操作推定装置は、前記車両の走行状態を検出する走行状態検出手段と、前記車両周辺の交通事情に関する情報を取得する交通情報取得手段と、前記操作推定手段による推定結果に対応する操作対象がステアリングおよびシフトレバー以外となっている状況で、前記走行状態検出手段により検出された走行状態が停車している状態となっており、かつ、前記交通情報取得手段により取得された情報が車両を発進させるべき交通事情に関する情報となっている場合に、その操作対象に対する操作を中断すべき旨を報知する第2中断報知手段と、を備えている。
このように構成すれば、ステアリングおよびシフトレバー以外の操作対象が操作される,または,操作されている状態で、車両を発進させるべき交通事情となっている場合に、その操作対象に対する操作を中断すべき旨を報知することができる。そのため、例えば、運転者がその操作対象の操作に集中していたとしても、その報知により上記交通事情となっていることに気付かせて、その操作対象の操作を中断することを促すと共に、その運転者に車両を発進させて交通の妨げとなることを回避させることができる。
なお、上述した各中断報知手段は、該当する操作対象に対する操作を中断すべき旨を報知する手段であり、その報知の具体的な方法については特に限定されない。例えば、その旨のメッセージを表示部に表示させる,スピーカから音声として出力させる,ランプを点灯させる,所定のアクチュエータを駆動させる,などといった方法を採用することができる。
また、上述した各構成において、操作推定手段は、例えば、請求項10に記載のように、記憶部に記憶されている推定モデルを読み出したうえで、該読み出した推定モデルそれぞれと前記実姿勢軌跡とを照合する、ように構成すればよい。
このように構成すれば、操作内容に応じた推定モデルそれぞれを記憶部に記憶させておくことにより、こうして記憶された推定モデルそれぞれを読み出したうえで、実姿勢軌跡の照合を実現することができる。
また、上述した操作推定手段が実姿勢軌跡を照合する際に用いる推定モデルは、あらかじめ用意されたものを継続的に用いることとしてもよい。ただ、操作者における姿勢点,実姿勢軌跡の傾向などを反映させたものに修正して用いることが、操作内容を正確に推定できるようにするうえで望ましいといえる。
例えば、特定の操作対象を継続的に操作する操作者がとるべき推定姿勢点をモデル化してなる停留推定モデルについては、請求項11〜14のいずれかに記載のように構成することが考えられる。
また、特定の操作対象の操作が終了して別の操作対象の操作が行われるという操作内容につき、該操作内容を実施する操作者が辿るべき推定姿勢軌跡をモデル化してなる遷移推定モデルについては、請求項15〜18のいずれかのように構成することが考えられる。
以下、これら構成について説明する。
請求項11に記載の操作推定装置は、1以上の操作対象それぞれに対する操作状態を検出する操作状態監視手段と、該操作状態監視手段により操作対象が操作されていることが検出された時点において、前記人体特徴点特定手段により特定された人体特徴点から求められる姿勢点(実姿勢点)に基づき、特定の操作対象を継続的に操作する操作者がとるべき推定姿勢点をモデル化してなる停留推定モデルのうち、その操作されていることが検出された操作対象に対応する停留推定モデルを修正する停留推定モデル修正手段と、を備えている。
このように構成すれば、操作者が特定の操作対象を継続的に操作した場合に、その操作内容に対応する停留推定モデルを、その操作対象が操作された時点における姿勢点に基づいて修正することができる。これにより、その停留推定モデルが操作者における姿勢点の傾向が反映されたものに修正される結果、その操作者に適応させた停留推定モデルとすることができる。このことは、その操作者に同じ操作内容が繰り返し実施されるほどより顕著になる。
また、この構成における停留推定モデル修正手段は、操作対象が操作された時点における人体特徴点から求められる実姿勢点に基づき、その操作対象に対応する停留推定モデルを修正する手段であるが、その修正は、操作対象が操作される都度、その時点で人体特徴点特定手段により特定された人体特徴点から求められる実姿勢点に基づいて実施するように構成すればよい。
また、操作対象が操作された時点で人体特徴点特定手段により特定された人体特徴点を記憶部に蓄積しておき、所定のタイミングで、その蓄積された人体特徴点から求められる実姿勢点に基づいて実施するように構成してもよい。
このためには、例えば、請求項12に記載のように、前記操作状態監視手段により操作対象が操作されていることが検出される毎に、該検出された時点において前記人体特徴点特定手段により特定された人体特徴点を、記憶部に蓄積させる停留点蓄積手段を備えるとよい。そして、停留推定モデル修正手段が、所定の修正条件が満たされた際に、前記停留点蓄積手段により記憶部に蓄積された複数の人体特徴点に基づいて、前記操作されていることが検出された操作対象に対応する停留推定モデルを修正する、ように構成するとよい。
このように構成すれば、操作対象が操作された時点における人体特徴点から求められる実姿勢点に基づいて、修正条件が満たされたタイミングで停留推定モデルの修正を実施することができる。
この構成において、停留推定モデル修正手段が停留推定モデルを修正する契機となる「修正条件」としては、例えば、操作推定装置が起動したこと、先に推定モデルの修正が実施されてから所定の時間が経過したこと、停留点蓄積手段により所定数以上の人体特徴点または実姿勢点が蓄積されたこと、などが考えられる。
また、上述した停留点蓄積手段は、人体特徴点を記憶部に蓄積させる手段であるが、このとき、人体特徴点については、その数に上限を設けずに蓄積していくこととしてもよい。また、操作対象毎に上限を設けておき、記憶部に蓄積された人体特徴点の数がその上限値に到達した以降、その操作対象に対応する最も古い人体特徴点を、新たに蓄積すべき人体特徴点に更新(上書き)するようにしてもよい。
また、この停留推定モデル修正手段が停留推定モデルを修正する具体的な方法については特に限定されないが、例えば、請求項13に記載のように、前記停留点蓄積手段により記憶部に蓄積された所定数の人体特徴点からそれぞれ求められる実姿勢点を平均化し、該平均化された実姿勢点をモデル化してなる推定モデルに、前記操作されていることが検出された操作対象に対応する停留推定モデルを更新する、ことが考えられる。
このように構成すれば、操作された操作対象に対応する停留推定モデルを、記憶部に蓄積された人体特徴点から求められる所定数の実姿勢点を平均化してなる推定モデルに更新(上書き)することにより、その停留推定モデルの修正をすることができる。
また、この構成では、記憶部に蓄積された所定数の人体特徴点が抽出され、それらが停留推定モデルの修正に用いられることとなるが、それらの記憶部への蓄積は、その停留推定モデルに対応する操作対象が操作されることにより実施されるものであるため、その操作対象の操作が充分な回数だけ行われていない状態で修正条件が満たされてしまうと、本来修正に用いられるべき所定数の人体特徴点が抽出できなくなってしまう。
この場合であっても、所定数未満の人体特徴点に基づいて停留推定モデルの修正を行うこととすればよいが、その不足分を、あらかじめ用意した人体特徴点で補ったうえで修正を行うこととしてもよい。
このための構成としては、例えば、請求項14に記載のように、所定数の実姿勢点を平均化するにあたり、前記停留点蓄積手段により記憶部に蓄積された人体特徴点が所定数に満たない場合、その不足分を、操作対象毎にあらかじめ用意された人体特徴点のうちの前記操作されていることが検出された操作対象に対応する人体特徴点で補ったうえで、その平均化を行う、ように構成すればよい。
このように構成すれば、修正に用いられるべき所定数の人体特徴点が記憶部に蓄積される前の段階であっても、所定数の人体特徴点に基づいて、停留推定モデルの修正を行うことができる。
続いて、請求項15に記載の操作推定装置は、1以上の操作対象それぞれに対する操作状態を検出する操作状態監視手段と、該操作状態監視手段により操作されていることが検出されていた操作対象について操作されていることが検出されなくなった以降、別の操作対象が操作されていることが検出されるまでの間に、前記人体特徴点特定手段により特定された人体特徴点それぞれから求められる実姿勢軌跡に基づいて、その前者の操作対象の操作が終了して後者の操作対象の操作が行われるという操作内容に対応する遷移推定モデルを修正する遷移推定モデル修正手段と、を備えている。
このように構成すれば、操作者が、ある操作対象の操作が終了して別の操作対象の操作を行うという操作を実施した場合に、その操作内容に対応する遷移推定モデルを、その間に特定された人体特徴点それぞれから求められる実姿勢軌跡に基づいて修正することができる。これにより、その遷移推定モデルがその操作者における姿勢軌跡の傾向が反映されたものに修正される結果、その操作者に適応させた遷移推定モデルとすることができる。このことは、その操作者に同じ操作内容が繰り返し実施されるほどより顕著になる。
この構成において、遷移推定モデル修正手段が遷移推定モデルを修正する契機となる「修正条件」としては、例えば、操作推定装置が起動したこと、先に推定モデルの修正が実施されてから所定の時間が経過したこと、遷移軌跡蓄積手段により所定数以上の人体特徴点群または実姿勢軌跡が記憶されたこと、などが考えられる。
また、この構成における遷移推定モデル修正手段は、ある操作対象の操作が終了して別の操作対象の操作が行われるまでの人体特徴点それぞれ(人体特徴点群)から求められる実姿勢軌跡に基づき、その操作対象に対応する停留推定モデルを修正する手段であるが、その修正は、人体特徴点群を記憶部に蓄積しておき、所定のタイミングで、その蓄積された人体特徴点群から求められる実姿勢軌跡に基づいて実施することとすればよい。
このためには、例えば、請求項16に記載のように、前記操作状態監視手段により操作されていることが検出されていた操作対象について操作されていることが検出されなくなった以降、別の操作対象が操作されていることが検出されるまでの間に、前記人体特徴点特定手段により特定された人体特徴点それぞれからなる人体特徴点群を、記憶部に蓄積させる遷移軌跡蓄積手段を備えるとよい。そして、遷移推定モデル修正手段が、所定の修正条件が満たされた際に、前記遷移軌跡蓄積手段により記憶部に蓄積された人体特徴点群から求められる実姿勢軌跡に基づいて、該当する操作内容に対応する遷移推定モデルを修正する、ように構成するとよい。
このように構成すれば、ある操作対象の操作が終了して別の操作対象の操作が行われるまでの人体特徴点それぞれから求められる実姿勢軌跡に基づいて、修正条件が満たされたタイミングで遷移推定モデルの修正を実施することができる。
この構成において、遷移軌跡蓄積手段は、人体特徴点群を記憶部に蓄積させる手段であるが、このとき、人体特徴点群については、その数に上限を設けずに蓄積していくこととしてもよい。また、操作内容毎に上限を設けておき、記憶部に蓄積された人体特徴点群の数がその上限値に到達した以降、その操作内容に対応する最も古い人体特徴点群を、新たに蓄積すべき人体特徴点群に更新(上書き)するようにしてもよい。
また、この遷移推定モデル修正手段が遷移推定モデルを修正する方法については特に限定されないが、例えば、請求項17に記載のように、前記遷移軌跡蓄積手段により記憶部に蓄積された所定数の人体特徴点群からそれぞれ求められる実姿勢軌跡を平均化し、該平均化した実姿勢軌跡をモデル化してなる推定モデルに、該当する遷移推定モデルを更新する、ことが考えられる。
このように構成すれば、実施された操作内容に対応する遷移推定モデルを、記憶部に蓄積された人体特徴点群から求められる所定数の実姿勢軌跡を平均化してなる推定モデルに更新(上書き)することにより、その遷移推定モデルの修正をすることができる。
また、この構成では、記憶部に蓄積された所定数の人体特徴点群が抽出され、それらが遷移推定モデルの修正に用いられることとなるが、それらの記憶部への蓄積は、その遷移推定モデルに対応する操作内容が実施されることにより実施されるものであるため、その操作内容が充分な回数だけ実施していない状態で、修正条件が満たされてしまうと、本来修正に用いるべき所定数の人体特徴点群が抽出できなくなってしまう。
この場合であっても、所定数未満の人体特徴点群に基づいて停留推定モデルの修正を行うこととすればよいが、その不足分を、あらかじめ用意した人体特徴点群で補ったうえで修正を行うこととしてもよい。
このための構成としては、例えば、請求項18に記載のように、所定数の実姿勢軌跡を平均化するにあたり、前記遷移軌跡蓄積手段により記憶部に蓄積された人体特徴点群が所定数に満たない場合、その不足分を、操作内容毎にあらかじめ用意された人体特徴点群のうちの該当する操作内容に対応する人体特徴点群で補ったうえで、その平均化を行う、ように構成すればよい。
このように構成すれば、修正に用いられるべき所定数の人体特徴点群が記憶部に蓄積される前の段階であっても、所定数の人体特徴点群に基づいて、遷移推定モデルの修正を行うことができる。
なお、上述した各操作状態監視手段は、操作対象それぞれが操作されていることを検出することができればよく、例えば、その操作対象が操作されたことを検出するセンサを設けておき、このセンサからの出力に基づいて、操作対象それぞれの操作状態を検出することとすればよい。また、操作推定装置が車両に搭載された状態で使用される場合であって、操作対象それぞれが、車両内のネットワークに接続されており、その操作に応じた情報をネットワーク経由で外部へと送信可能に構成されている場合であれば、その情報に基づいて、操作対象それぞれの操作状態を検出することとしてもよい。
また、請求項19に記載のプログラムは、請求項1から18のいずれかに記載の操作推定装置の備える全ての手段として機能させるための各種処理手順をコンピュータシステムに実行させるためのプログラムである。
このプログラムにより制御されるコンピュータシステムは、請求項1から18のいずれかに記載の操作推定装置の一部を構成することができる。
なお、上述した各プログラムは、各種記録媒体や通信回線を介してクライアント,サーバやこれを利用するユーザに提供されるものである。
以下に本発明の実施形態を図面と共に説明する。
(1)全体構成
操作支援システム1は、車両に搭載された各構成要素からなるものであって、図1に示すように、マイコンやメモリなどを有する周知のECUである操作推定装置10,車両室内を撮影するためのカメラ20,車両室内に配置された操作対象周辺にそれぞれ設けられた複数のランプからなるランプ群30,ナビゲーション装置40,空調装置50,シフトレバー60,車両室内に設置された複数の操作対象周辺にそれぞれ設けられた複数のセンサ(近接センサ,タッチセンサ,スイッチなど)からなるセンサ群70などで構成される。
なお、本実施形態において、車両室内に配置された操作対象とは、図2(a)に示すように、例えば、ルームミラー82,ステアリング84,助手席のシート86,センタパネル右ブロア90,センタパネル左ブロア92,グローブボックス94,コンソールボックス96,ナビゲーション装置40,空調装置50,シフトレバー60などのことである。
カメラ20は、車両室内におけるルームミラー82上部の領域82aに、少なくとも車両の運転者,および,車両室内において運転者が操作しうる操作対象全てを撮影できる位置関係で取り付けられており、そうして撮影してなる画像(図2(b)参照)を随時操作推定装置10へと出力する。
ランプ群30は、各ランプに対応する操作対象をそのランプで照らすことができる位置関係で取り付けられている。
センサ群70は、各センサに対応する操作対象が操作されたことを検出できるような位置関係で取り付けられている。そして、該当する操作対象の操作を検出した際に、その検出結果を示す情報を、センサから操作推定装置10へと至る通信路(例えば、車両内のネットワーク)を介して操作推定装置10へと送信する。
(2)操作推定装置10による処理
以下に、操作推定装置10(のマイコン)がその内蔵メモリに記憶されたプログラムに従って実行する各種処理を説明する。
(2−1)人体特徴点特定処理
はじめに、操作推定装置10が起動されて以降、繰り返し実行される人体特徴点特定処理の処理手順について図4に基づいて説明する。
なお、この人体特徴点特定処理は、操作推定装置10の内蔵するマイコンを、カメラ20から入力される画像を取得する画像取得手段110と、画像取得手段110により取得された画像中の運転者における1以上の人体特徴点それぞれを特定する人体特徴点特定手段120と、からなる機能ブロックとして機能させることにより実行されるものである(図3参照)。
この人体特徴点特定処理が起動されると、まず、画像取得手段110が、カメラ20から入力される画像を取得する(s110)。ここでは、運転者が各操作対象を操作している様子を示す画像が取得されることとなる(図5(a)〜(j)参照)。
次に、s110にて取得された画像に基づいて、人体特徴点特定手段120が、この画像中の運転者における1以上の人体特徴点それぞれを特定する(s120)。
ここでは、カメラ20から入力される画像中の運転者に対応する領域に、人体を模擬的に表現してなる身体モデルを、その運転者の姿勢に合わせて重ね合わせ、その画像中から、身体モデルにおける基準となる座標それぞれを、その画像中の運転者における人体特徴点として特定する。ここでいう「身体モデルの基準点」とは、例えば、両肩,両肘,両手首などの中心位置のことである(図6のd1〜d6参照;以降、1つの画像から特定される1以上の人体特徴点を単に「人体特徴点」という)。なお、このような身体モデルの重ね合わせについては、特開2003−109015号に記載された技術を利用することとすればよい。
そして、人体特徴点特定手段120が、s120にて特定された人体特徴点を人体特徴点リストに登録した後(s130)、プロセスがs110へと戻る。
この人体特徴点リストは、人体特徴点を登録するためにメモリ内に用意されたリストであって、所定数Nの人体特徴点が先入れ先出し方式で登録されるリストである。つまり、この人体特徴点リストは、本人体特徴点特定処理が一定回数繰り返された以降、人体特徴点として常に最新のものから所定数Nだけ前までのものが登録された状態となる。なお、この人体特徴点リストには、運転者が特定の姿勢をとっている場合における人体特徴点として想定される人体特徴点を、初期値として登録しておくこととしてもよい。
(2−2)操作補助処理
続いて、操作推定装置10が起動されて以降、上記人体特徴点特定処理と並行して繰り返し実行される操作補助処理の処理手順を図7に基づいて説明する。
なお、この操作補助処理は、操作推定装置10の内蔵するマイコンを、人体特徴点リストに登録された人体特徴点に基づいて運転者の操作内容を推定する操作推定手段210と、操作推定手段210により推定された操作内容の実施を補助すべくランプ群30の点灯を制御する操作補助手段220と、からなる機能ブロックとして機能させることにより実行されるものである(図3参照)。
この操作補助処理が起動されると、まず、操作推定手段210が、上述した人体特徴点リストに登録されている全ての人体特徴点を読み出し(s210)、こうして読み出した人体特徴点それぞれに基づいて運転者の姿勢軌跡を特定する(s220)。このs220では、s210にて読み出された各人体特徴点を、主成分分析により表現される固有空間に投影し、こうして投影した固有空間上での座標の軌跡を運転者による実際の姿勢軌跡(以降、「実姿勢軌跡」という)として特定する。
この後、操作推定手段210は、s220にて特定された実姿勢軌跡と、メモリから読み出した複数の推定モデルにて示される姿勢軌跡および姿勢点それぞれと、の照合を経て、運転者の操作内容を推定する。
ここでいう推定モデルとは、停留推定モデルと、遷移推定モデルと、に大別される。停留推定モデルは、ある操作対象を継続的に操作している運転者がとると推定される姿勢点(以降、「推定姿勢点」という)をモデル化したものであり、操作対象それぞれに対応するものがメモリ内に用意されている。また、遷移推定モデルは、ある操作対象を操作していた状態から別の操作対象の操作へと移行するといった操作内容を実施している運転者が辿ると推定される姿勢軌跡(以降、「推定姿勢軌跡」という)をモデル化したものである。操作内容それぞれに対応するものがメモリ内に用意されている。ここで、図8(a)に3次元に簡易化した固有空間における停留推定モデルを示し、同図(b)〜(e)に同固有空間における遷移推定モデルの一例を示す。
そして、操作推定手段210による照合に際しては、まず、上記s220にて特定された実姿勢軌跡における座標(姿勢点,つまり固有空間上の座標)(p01〜p0n;1≦n)毎に、その座標と、各推定モデル1〜x(1<x)にて示される推定姿勢軌跡,推定姿勢点における固有空間上の座標(p11〜p1m,p21〜p2m,…,px1〜pxm;1≦m)それぞれと、のなす角度が算出される(s230)。
こうして、実姿勢軌跡における座標それぞれに対応する複数の角度群(p01[θ11〜θxm],p02[θ11〜θxm],…,p0n[θ11〜θxm])が算出される。なお、ここでいう角度θとは、両座標P1,P2の内積値に基づく式「cosθ=P1・P2/(|P1|・|P2|)」に基づいて算出されるものである。
次に、s230にて算出された座標毎の角度群それぞれにつき、その角度群の中で最も小さい角度,および,その最小角度を算出したときに参照された推定姿勢軌跡または推定姿勢点についての推定情報が特定される(s240)。この「推定情報」とは、最小角度を算出したときに参照された推定姿勢軌跡または推定姿勢点に対応する推定モデル,その最小角度を算出したときに参照された推定姿勢軌跡における各座標の遷移方向(推定姿勢軌跡において始点から終点へ向かう方向)などを示す情報である。なお、このように最小角度を算出したときに参照された推定姿勢軌跡または推定姿勢点は、その最小角度が小さいほど、実姿勢軌跡との近似度が高いものといえる。
次に、s240にて特定された最小角度全てが所定のしきい値(例えば、20度)未満となっているか否かがチェックされる(s250)。
このs250で、最小角度全てが所定のしきい値以上であると判定された場合(s250:NO)、運転者の操作内容に該当する推定モデルがない,つまり操作対象の操作が行われないと推定された後(s260)、プロセスがs210へと戻る。このs260では、ランプ群30における全てのランプを消灯させる処理も併せて行われる。
一方、s250で、最小角度全てが所定のしきい値未満であると判定された場合(s250:YES)、s240にて特定された各推定情報における推定モデルが全て同一であるか否かがチェックされる(s270)。
このs270で、各推定情報における推定モデルが全て同一ではないと判定された場合(s270:NO)、プロセスがs260へ移行し、操作対象の操作が行われないと推定された後、プロセスがs210へと戻る。
一方、s270で、各推定情報における推定モデルが全て同一であると判定された場合(s270:YES)、s240にて特定された各座標情報における推定モデルが、停留推定モデルであるか否かがチェックされる(s290)。
このs290で、停留推定モデルであると判定された場合(s290:YES)、s270にて同一であると判定された推定モデルに基づいて運転者の操作内容が推定された後(s300)、プロセスが次の処理(s310)へと移行する。このs300では、s270にて同一であると判定された推定モデルが遷移推定モデルであれば、その推定モデルに対応する操作対象の組み合わせに基づいて、特定の操作対象の操作が終了して別の操作対象の操作が行われるという操作内容を、運転者が実施しようとしていると推定される。一方、s270にて同一であると判定された推定モデルが停留推定モデルであれば、その推定モデルに対応する操作対象を、運転者が操作していると推定される。
また、上記s290で、遷移推定モデルであると判定された場合(s290:NO)、s240にて特定された各軌跡情報における遷移方向が全て同一であるか否かがチェックされる(s320)。
このs320で、遷移方向が全て同一ではないと判定された場合(s320:NO)、プロセスがs260へ移行し、操作対象の操作が行われないと推定された後、プロセスがs210へと戻る。
一方、s320で、遷移方向が全て同一であると判定された場合(s320:YES)、プロセスがs300へ移行し、運転者の操作内容が推定された後、プロセスが次の処理(s310)へと移行する。
こうして、実姿勢軌跡と推定姿勢軌跡および推定姿勢点との照合に基づいて上記s300にて推定された結果につき、操作補助手段220が、その結果に応じた操作対象への操作の補助を行う(s310)。
ここでは、実姿勢軌跡の照合を経て推定された結果が、停留推定モデルに基づくものである場合、ランプ群30のうち、その停留推定モデルに対応する操作対象を照らすランプを点灯させると共に、それ以外のランプを消灯させる。また、推定された結果が、遷移推定モデルに基づくもの,つまり操作対象の組み合わせである場合、ランプ群30のうち、一方または両方の操作対象(本実施形態では、遷移方向の終点側となる操作対象のみ)に対応するランプそれぞれを点灯させると共に、それ以外のランプを消灯させる。
なお、このようなランプ群30における各ランプの点灯および消灯は、ランプ群30のうち点灯させるべきランプへの通電の開始,および,消灯させるべきランプへの通電の終了を行うことにより、実現される。
こうして、s310が行われた後、プロセスがs210へと戻る。
(2−3)データ収集処理
続いて、操作推定装置10が起動されて以降、操作対象に対する操作がセンサ群70により検出される毎に実行されるデータ収集処理の処理手順を図9に基づいて説明する。
なお、このデータ収集処理は、操作推定装置10の内蔵するマイコンを、本データ収集処理の起動に先立って操作対象に対する操作が行われたことを検出する操作状態監視手段310と、操作状態監視手段310により検出された操作が運転者によるものであるか否かを判定する操作者判定手段320と、操作者判定手段320により運転者による操作であると判定された場合に人体特徴点リストに登録された人体特徴点を内蔵メモリにおける所定の記憶領域に記憶(後述する停留操作テーブル,遷移操作テーブルに登録)させる軌跡蓄積手段330と、からなる機能ブロックとして機能させることにより実行されるものである(図3参照)。
このデータ収集処理が起動されると、まず、操作者判定手段320が、上述した人体特徴点リストに登録されている最新の人体特徴点を読み出し(s410)、この人体特徴点に基づいて、その起動に先立って検出された操作対象に対する操作が運転者によるものであるか否かをチェックする(s420)。
このs420では、人体特徴点リストに登録されている最新の人体特徴点を、本データ収集処理の起動に先立って検出された操作対象に対応する人体特徴点であるとみなし、次に示す処理手順に従って、操作対象に対する操作が運転者によるものであるか否かのチェック(操作者の特定)を行う。
図10に示すように、はじめに、上記s410にて読み出された人体特徴点を、主成分分析により表現される固有空間に投影した場合における固有空間上の座標(姿勢点;以降、「現在地姿勢点」という)が特定される(s610)。
次に、上記s610にて特定された現在地姿勢点と、各推定モデル1〜xにて示される推定姿勢軌跡,推定姿勢点における固有空間上の座標(p11〜p1m,p21〜p2m,…,px1〜pxm;1≦m)それぞれと、のなす角度が算出される(s620)。こうして、現在地姿勢点に対応する角度群(θ11〜θxm)が算出される。なお、ここでいう角度θとは、上述したのと同様、「cosθ=P1・P2/(|P1|・|P2|)」に基づいて算出されるものである。
次に、s620にて算出された角度群の中で最も小さい角度を算出したときに参照された推定姿勢軌跡または推定姿勢点につき、この推定姿勢軌跡または推定姿勢点に対応する推定モデルが特定される(s630)。
そして、s630にて特定された推定モデルに対応する操作内容が、本データ収集処理の起動に先立って操作を検出された操作対象に関するものであれば(s640:YES)、その操作対象に対する操作が運転者によるものであると判定される一方(s650)、その操作対象に関するものでなければ(s640:NO)、その操作対象に対する操作が運転者によるものではないと判定される(s660)。
こうして、上記s420(s610〜s660)によるチェックにて、操作対象に対する操作が運転者によるものでないと判定された場合(s420:NO)、直ちにデータ収集処理が終了する。
一方、操作対象に対する操作が運転者によるものであると判定された場合(s420:YES)、軌跡蓄積手段330が、上記s410にて読み出された人体特徴点を、操作対象毎に用意された複数の停留操作テーブルのうち、本データ収集処理の起動に先立って操作を検出された操作対象に対応する停留操作テーブルに登録する(s430)。
この停留操作テーブルとは、操作対象に対する操作が行われた時点における人体特徴点を先入れ先出し方式で所定数だけ登録可能なデータテーブルであって、あらかじめ操作対象それぞれに対応するものがメモリ内に用意されている。つまり、この停留操作テーブルは、本データ収集処理が一定回数繰り返された以降、該当する操作対象に対する操作時の人体特徴点として、最新のものから所定数だけ前までのものが登録された状態になる。なお、この停留操作テーブルには、それに対応する操作対象が操作された時点における人体特徴点として想定される人体特徴点を、あらかじめ初期値として登録しておくこととしてもよい。
次に、本データ収集処理の起動に先立って操作が検出された操作対象につき、その操作が終了するまで待機状態となる(s440:NO)。ここでは、センサ群70のうち、該当する操作対象の操作を検出するセンサにより、その操作が検出されなくなったことをもって、その操作が終了したと判定される。
その後、該当する操作が終了したと判定された場合(s440:YES)、軌跡蓄積手段330が、上述した人体特徴点リストに登録されている最新の人体特徴点を読み出す(s450)。ここでは、最新の人体特徴点が、操作を終了した時点における運転者の人体特徴点として読み出されることとなる。
次に、軌跡蓄積手段330が、人体特徴点それぞれを登録して操作内容を特定するための操作特定テーブルを生成し、その操作特定テーブルに、s450にて読み出された人体特徴点と、本データ収集処理の起動に先立って操作が検出された操作対象と、を対応づけて登録する(s460)。この操作特定テーブルは、操作対象に対する操作が行われた以降における運転者の人体特徴点を、時系列で順番に登録するためのデータテーブルである。
この後、操作状態監視手段310が、新たに操作対象に対する操作が行われたか否かをチェックする(s470)。
このs470で、操作対象に対する操作が行われていないと判定された場合(s470:NO)、軌跡蓄積手段330が、上記s440で操作が終了したと判定された以降の経過時間が所定のしきい値を超えている(タイムアウト)か否かをチェックする(s480)。
このs480で、経過時間が所定のしきい値を超えていないと判定された場合(s480:NO)、軌跡蓄積手段330が、上述した人体特徴点リストに登録されている最新の人体特徴点を読み出し(s490)、これを操作特定テーブルに登録した後(s500)、プロセスがs470へ戻る。ここでは、最新の人体特徴点が、操作を終了した以降における運転者の人体特徴点として読み出されて登録されることとなる。
その一方、s480にて経過時間がしきい値を超えていると判定された場合(s480:YES)、軌跡蓄積手段330が、上記s460にて生成された操作特定テーブルを削除した後(s510)、本データ収集処理が終了する。
また、上記s470で、操作対象に対する操作が行われていると判定された場合(s470:YES)、軌跡蓄積手段330が、上述した人体特徴点リストに登録されている最新の人体特徴点を読み出し(s520)、上記s420と同様、操作者判定手段320が、その人体特徴点に基づいて、その起動に先立って検出された操作対象に対する操作が運転者によるものであるか否かをチェックする(s530)。
このs530によるチェックにて、操作対象に対する操作が運転者によるものでないと判定された場合(s530:NO)、プロセスがs470へ戻る。一方、操作対象に対する操作が運転者によるものであると判定された場合(s530:YES)、その操作対象がs440にて操作が終了したと判定された操作対象と同一のものであるか否かを、軌跡蓄積手段330がチェックする(s540)。
このs540で、操作対象が同一のものであると判定された場合(s540:YES)、プロセスがs510へと移行し、軌跡蓄積手段330が操作特定テーブルを削除した後、本データ収集処理が終了する。
一方、操作対象が同一のものではないと判定された場合(s540:NO)、軌跡蓄積手段330が、上記s520にて読み出された人体特徴点を、操作対象毎に用意された複数の停留操作テーブルのうち、s470にて操作が行われていると判定された操作対象に対応する停留操作テーブルに登録する(s550)。ここでは、上記s520にて読み出された人体特徴点が、新たに操作対象の操作を開始した運転者の人体特徴点として停留操作テーブルに登録されることとなる。
次に、軌跡蓄積手段330が、s460にて生成された操作特定テーブルに、s520にて読み出された人体特徴点と、s470にて操作が行われていると判定された操作対象と、を対応づけて登録する(s560)。ここでは、上記s520にて読み出された人体特徴点が、新たに操作対象の操作を開始した運転者の人体特徴点として操作特定テーブルに登録されることとなる。
そして、軌跡蓄積手段330が、この時点で操作特定テーブルに登録されている複数の人体特徴点それぞれを、操作内容毎に用意された遷移操作テーブルのうち、その操作特定テーブルの登録内容に応じた操作内容の遷移操作テーブルに登録し(s570)、その操作特定テーブルを削除した後(s580)、プロセスがs440へと戻る。
この遷移操作テーブルは、ある操作対象に対する操作が終了してから別の操作対象に対する操作が開始される,といった操作内容の各時点における人体特徴点それぞれを一つのデータレコード(人体特徴点群)とし、これを先入れ先出し方式で所定数だけ登録可能なデータテーブルであって、あらかじめ操作内容それぞれに対応するものがメモリ内に用意されている。
つまり、この遷移操作テーブルは、該当する操作内容に対する人体特徴点それぞれからなる人体特徴点群として、最新のものから所定数だけ前までのものが登録された状態になる。そして、上記s570では、複数の遷移操作テーブルのうち、操作特定テーブルに登録されている最も古い人体特徴点に対応する操作対象から最新の人体特徴点に対応する操作対象へと向かう操作内容に対応する遷移操作テーブルに、操作特定テーブルに登録されている人体特徴点それぞれが登録される。
(2−4)推定モデル修正処理
続いて、操作推定装置10が起動されて以降、上記各処理と並行して繰り返し実行される推定モデル修正処理の処理手順を図11に基づいて説明する。
なお、この推定モデル修正処理は、操作推定装置10の内蔵するマイコンを、内蔵メモリに記憶された推定モデルを各操作テーブルに基づいて生成した推定モデルに修正(更新)する推定モデル修正手段410,からなる機能ブロックとして機能させることにより実行されるものである(図3参照)。
この推定モデル修正処理が起動されると、まず、推定モデルを修正すべき修正条件が満たされるまで待機状態となる(s710:NO)。ここでは、例えば、本操作推定装置10が車両の始動に伴って起動したこと、本推定モデル修正処理による推定モデルの更新が行われてから所定の時間が経過したこと、本推定モデル修正処理による推定モデルの更新が行われてから各操作テーブルが所定の割合以上更新されたこと、といった条件が満たされている場合に、修正条件が満たされたと判定される。
その後、修正条件が満たされたと判定されたら(s710:YES)、推定モデル修正手段410が、停留操作テーブルおよび遷移操作テーブルそれぞれに登録されているデータを読み出す(s720)。ここでは、停留操作テーブルに登録された操作対象毎の特徴点それぞれと、遷移操作テーブルに登録された操作内容毎の特徴点群それぞれと、が所定組ずつ読み出される。なお、以降、停留操作テーブルに登録された10種類の操作対象に対応する特徴点と、遷移操作テーブルに登録された9種類の操作内容に対応する特徴点群と、がそれぞれ30組ずつ読み出された場合を例示する(図12参照)。
次に、推定モデル修正手段410が、s720にて読み出された特徴点,特徴点群から外れ値を除去する(s730)。ここでは、停留操作テーブルから読み出された特徴点については、操作対象それぞれに対応する所定組の特徴点のうち、他の特徴点と比べて外れた値となっている一定割合(例えば、30組中10組)の特徴点が外れ値として除去される。また、遷移操作テーブルから読み出された特徴点群については、操作内容それぞれに対応する所定組の人体特徴点群うち、その人体特徴点群を形成する1以上の人体特徴点それぞれが、他の特徴点群における同一の人体特徴点と比べて外れている一定割合(同上)の遷移データが外れ値として除去される。
次に、推定モデル修正手段410が、s730にて外れ値の除去された残りの特徴点,特徴点群に主成分分析を適用して固有空間を求める(s740)。
次に、推定モデル修正手段410が、s730にて外れ値の除去された残りの特徴点,特徴点群それぞれを、操作対象,操作内容毎にs740にて求められた固有空間に投影することにより、こうして投影した固有空間上での座標,座標の軌跡を、運転者による操作対象毎の実際の姿勢点(以降、「実姿勢点」という),操作内容毎の実姿勢軌跡として特定する(s750)。
次に、推定モデル修正手段410が、s750にて特定した操作対象毎の実姿勢点,操作内容毎の実姿勢軌跡をそれぞれ平均化したものを、その操作対象,操作内容に対応する停留推定モデル,遷移推定モデルとして生成する(s760)。ここでは、操作対象毎に実姿勢点である座標の平均値が算出され、こうして平均化された実姿勢点が、その操作対象に対応する停留推定モデルとして生成される。また、操作内容毎に実姿勢軌跡である座標の軌跡にパラメトリック曲線(例えば、キュービックスプライン曲線)が当てはめられ、こうして求められた座標点の列が、その操作内容に対応する遷移推定モデルとして生成される。
そして、推定モデル修正手段410が、s760にて生成された推定モデルを、先に用意されていた同一の操作対象,操作内容に対応する推定モデルと置き換える(推定モデルを更新する)(s770)。
このs770の後、プロセスがs710へ戻って再度修正条件が満たされるまで待機状態となる。
(2−5)接近報知処理
続いて、操作推定装置10が起動されて以降、上記各処理と並行して繰り返し実行される接近報知処理の処理手順を図13に基づいて説明する。
なお、この接近報知処理は、操作推定装置10の内蔵するマイコンを、上述した操作推定手段210の他、操作支援システム1の搭載された車両に対する相対的な物体の接近をレーザにより判定する接近検出手段510と、接近検出手段510による検出結果および上述した操作推定手段210による推定結果に基づいて報知を行う第1中断報知手段520と、からなる機能ブロックとして機能させることにより実行されるものである(図3参照)。
この接近報知処理が起動されると、まず、接近検出手段510が、レーダに基づいて車両に対する相対的な物体の接近があるか否かを判定する(s810)。
このs810で、相対的に物体が接近していると判定されるまで待機状態となり(s810:NO)、その後、相対的に物体が接近していると判定されたら(s810:YES)、第1中断報知手段520が、その物体の接近に運転者が気付いておらず危険な状態となっているか否かを判定する(s820)。本実施形態において、第1中断報知手段520は、上述した操作推定手段210により推定された結果を監視しており、ここでは、その結果が、ステアリング84またはシフトレバー60以外を操作する,しているものである場合に、危険な状態となっていると判定される。
このs820で、危険な状態になっていないと判定されたら(s820:NO)、プロセスがs810へ戻る一方、危険な状態になっていると判定されたら(s820:YES)、第1中断報知手段520が、その旨を報知した後(s830)、プロセスがs810へ戻る。このs830では、ナビゲーション装置40のスピーカまたは表示部を介して、物体の接近に運転者が気付いておらず危険な状態となっている旨のメッセージが出力されることにより報知が実現される。
このとき出力されるメッセージには、物体が接近していることの他、操作推定手段210による推定結果が停留推定モデルに基づくものであれば、該当する操作対象に対する操作を中断して安全に車両を運転すべき旨のメッセージが含まれる。それに対し、操作推定手段210による推定結果が遷移推定モデルに基づくものであれば、該当する操作内容における姿勢軌跡の終点となる操作対象の操作を中断して安全に車両を運転すべき旨のメッセージが含まれる。
(2−6)発進報知処理
続いて、操作推定装置10が起動されて以降、上記各処理と並行して繰り返し実行される発進報知処理の処理手順を図14に基づいて説明する。
なお、この発進報知処理は、操作推定装置10の内蔵するマイコンを、上述した操作推定手段210の他、交通情報を取得する交通情報取得手段610と、車両の走行状態を検出する走行状態検出手段620と、交通情報取得手段610により取得された交通情報,走行状態検出手段620により検出された走行状態および上述した操作推定手段210による推定結果に基づいて報知を行う第2中断報知手段630と、からなる機能ブロックとして機能させることにより実行されるものである(図3参照)。
この発進報知処理が起動されると、まず、走行状態検出手段620が、センサ群70のうちの走行速度を検出可能なセンサからの出力に基づいて、車両が停止した状態となっているか否かをチェックする(s910)。ここでは、上記センサにより検出された走行速度が所定値(例えば、5km/h)未満である場合に、車両が停止した状態となっていると判定される。
このs910にて車両が停止した状態となっていると判定されるまで待機状態となった後(s910:NO)、車両が停止した状態になっていると判定されたら(s910:YES)、交通情報取得手段610が、車両外部(道路上に設置された装置や他の車両)から交通情報を取得する(s920)。ここでは、車両の前方に信号を有する交差点が存在しているか否か、その信号の状態が車両の進行方向に関してどのような表示内容(青または赤)になっているか、車両の前方に踏切が存在しているか否か、その踏切における遮断機の開閉状態がどのような状態になっているか、といった交通事情を示す交通情報が、ナビゲーション装置40の有する通信機能を介して車両外部から取得される。
次に、第2中断報知手段630が、s920にて取得された交通情報に基づいて、車両が発進すべき交通事情になっているか否かをチェックする(s930)。ここでは、s920にて取得された交通情報が、交差点が存在しており,かつ,その表示内容が「青」になっている交通事情を示す場合、または、踏切が存在しており,かつ,遮断機の開閉状態が「開」になっている交通事情を示す場合に、車両が発進すべき状態になっていると判定される。
このs930で、車両が発進すべき交通事情になっていないと判定された場合(s930:NO)、走行状態検出手段620が、センサ群70のうちの走行速度を検出可能なセンサからの出力に基づいて、車両が走行を開始したか否かをチェックする(s940)。このs940では、上記センサにより検出された走行速度が所定値(例えば、5km/h)以上となっている場合に、車両が走行を開始したと判定される。
このs940で、車両が走行を開始したと判定された場合(s940:YES)、プロセスがs910へ戻る。一方、車両が走行を開始していないと判定された場合(s940:NO)、プロセスがs920へ戻る。
また、上記s930で、車両が発進すべき交通事情になっていると判定された場合(s930:YES)、上記s940と同様、走行状態検出手段620が、センサ群70のうちの走行速度を検出可能なセンサからの出力に基づいて、車両が走行を開始したか否かをチェックする(s950)。
このs950で、車両が走行を開始したと判定された場合(s950:YES)、プロセスがs910へ戻る。一方、車両が走行を開始していないと判定された場合(s950:NO)、s920で交通情報が取得された以降の経過時間が所定時間(例えば、1秒)を経過しているか否かがチェックされる(s960)。
このs960で、経過時間が所定時間を経過していなければ(s960:NO)、s930へ戻る一方、経過時間が所定時間を経過していれば(s960:YES)、第2中断報知手段630が、その発進の遅延が操作対象に対する操作が要因であるか否かをチェックする(s970)。本実施形態において、第2中断報知手段630は、上述した操作推定手段210による推定結果を監視しており、ここでは、その監視している結果が、ステアリング84またはシフトレバー60以外を操作する,しているものである場合に、その発進の遅延が操作対象に対する操作が要因であると判定される。
このs970で、発進の遅延が操作対象に対する操作が要因であると判定された場合(s970:YES)、第2中断報知手段630が、その旨を報知した後(s980)、プロセスがs910へ戻る。このs980では、ナビゲーション装置40のスピーカまたは表示部を介して、操作対象に対する操作が要因で発進が遅延している旨のメッセージが出力されることにより報知が実現される。
このとき出力されるメッセージには、信号の表示内容が「青」になっているために車両を発進させるべきであることの他、操作推定手段210による推定結果が停留推定モデルに基づくものであれば、該当する操作対象に対する操作を中断して安全に車両を発進させるべき旨のメッセージが含まれる。それに対し、操作推定手段210による推定結果が遷移推定モデルに基づくものであれば、該当する操作内容における姿勢軌跡の終点となる操作対象の操作を中断して安全に車両を発進させるべき旨のメッセージが含まれる。
一方、発進の遅延が操作対象に対する操作が要因ではないと判定された場合(s970:NO)、s980が行われることなく、プロセスがs910へ戻る。
(3)作用,効果
このように構成された操作支援システム1において、操作推定装置10では、運転者による実際の姿勢軌跡である実姿勢軌跡を、推定モデルにおける姿勢軌跡である推定姿勢軌跡それぞれ,および,停留推定モデルにおける姿勢点である推定姿勢点それぞれと照合し(図7のs220〜s270)、所定のしきい値を満たす近似度となっている推定姿勢軌跡があることをもって、運転者が操作対象を操作しようとしていると推定できる。さらに、その近似度の条件を満たす推定姿勢軌跡,推定姿勢点に対応する操作を運転者が実施しようとしていると推定できる(同図s300)。
さらに、操作補助手段220により、こうして推定した操作内容にて操作されるべき操作対象への操作のサポートを先回りして行うことができ、または、操作者が実施している操作を継続的にサポートすることができるため(同図s310)、その操作の実施を容易なものとすることができて好適である。
ここで、操作対象に対する操作のサポートは、該当する操作対象に対応するランプを点灯させてその操作対象を照らすことにより実現している。これにより、運転者が操作しようとした操作対象がランプにより照らされるため、その操作対象の位置を視認しやすくなる結果、運転者の手などを視覚的に操作対象の位置まで導くことができる。
また、上記構成では、ステアリングおよびシフトレバー以外の操作対象が操作される,している状態で(図13のs820で「YES」)、車両に相対的に物体が接近している場合に(同図s810で「YES」)、その操作対象に対する操作を中断すべき旨を報知することができる(同図s830)。そのため、運転者がその操作対象の操作に集中していたとしても、その報知により、接近する物体の存在に気付かせて、その物体に衝突してしまうことを回避するように運転を実施させることができる。
また、上記構成では、ステアリングおよびシフトレバー以外の操作対象が操作される,している状態で(図14のs970で「YES」)、車両を発進させるべき交通事情となっている場合に(同図s930で「YES」)、その操作対象に対する操作を中断すべき旨を報知することができる(同図s980)。そのため、運転者がその操作対象の操作に集中していたとしても、その報知により上記交通事情となっていることに気付かせて、その車両に衝突してしまうことを回避するように運転を実施させることができる。
また、上記構成において、操作推定手段210は、メモリに記憶されている推定モデルを読み出したうえで(図7のs230)、この読み出した推定モデルそれぞれと実姿勢軌跡を照合している。このように、推定モデルそれぞれをメモリに記憶させておくことにより、こうして記憶された推定モデルそれぞれを読み出したうえで、実姿勢軌跡の照合を実現することができる。
また、上記構成では、運転者が特定の操作対象を継続的に操作した時点における人体特徴点に基づいて、その操作内容に対応する停留推定モデルを修正することができる(図11のs720〜s770)。これにより、その停留推定モデルが操作者における姿勢軌跡の傾向が反映されたものに修正される結果、その操作者に適応させた停留推定モデルとすることができる。このことは、その操作者に同じ操作内容が繰り返し実施されるほどより顕著になる。
このとき、停留推定モデルの修正は、操作対象が操作された時点で人体特徴点特定手段120に特定された人体特徴点をその都度記憶部に蓄積させておき(図9のs430,s550)、その蓄積された人体特徴点から求められる実姿勢軌跡に基づいて所定のタイミングで(図11のs710で「YES」)実施することができる。
また、ここでの修正は、操作された操作対象に対応する停留推定モデルを、記憶部に蓄積された人体特徴点から求められる所定数の実姿勢点を平均化してなる推定モデルに更新(上書き)することにより、その停留推定モデルの修正をすることができる(図11のs720〜s770)。
また、上記構成では、運転者がある操作対象の操作が終了して別の操作対象の操作を行うという操作を実施した場合に、その操作内容に対応する遷移推定モデルを、その間に特定された人体特徴点それぞれから求められる実姿勢軌跡に基づいて修正することができる(図11のs720〜s770)。これにより、その遷移推定モデルがその操作者における姿勢軌跡の傾向が反映されたものに修正される結果、その操作者に適応させた遷移推定モデルとすることができる。このことは、その操作者に同じ操作内容が繰り返し実施されるほどより顕著になる。
このとき、遷移推定モデルの修正は、ある操作対象の操作が終了して別の操作対象の操作が行われるまでの人体特徴点群をその都度記憶部に蓄積させておき(図9のs460,s500,s560,570)、その蓄積された人体特徴点群から求められる実姿勢軌跡に基づいて所定のタイミングで実施することができる(図11のs710で「YES」)。
また、ここでの修正は、ある操作対象の操作が終了して別の操作対象の操作が行われるといった操作内容に対応する遷移推定モデルを、記憶部に蓄積された人体特徴点群から求められる所定数の実姿勢軌跡を平均化してなる推定モデルに更新(上書き)することにより、その停留推定モデルの修正をすることができる(図11のs720〜s770)。
(4)変形例
以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
例えば、上記実施形態においては、本発明の操作推定装置である操作推定装置10が、車両に搭載された状態で使用されるように構成されたものを例示した。しかし、この操作推定装置は、車両以外に運転者による運転が必要な飛行機,自動二輪車の他、操作者による操作が必要な工作機械などに適用できることはいうまでもない。
また、上記実施形態において、車両室内を撮影するカメラ20は、人体特徴点特定手段120が人体特徴点を特定できる画像を撮影できるものであれば、どのような画像を撮影するカメラであってもよい。例えば、モノクロカメラ,カラーカメラ,人体特徴点として立体視した画像を取得するステレオカメラ(複数のカメラからなる構成),3次元画像センサ(画素それぞれについての成分に基づいて距離を出力するセンサ)などを用いることが考えられる。これらのうち、ステレオカメラや3次元画像センサを用いた場合、人体特徴点特定手段120は、人体特徴点として3次元の座標を特定することとすればよい。
また、上記実施形態においては、操作推定手段210は、実姿勢軌跡の照合により特定された近似度の高い1以上の推定姿勢軌跡について、それら推定姿勢軌跡に対応する全ての推定モデルが全て同一であるか否かをチェックし、全て同一である場合にのみ(図7のs270「YES」)、その推定モデルに対応する操作を運転者が実施しようとしていると推定している(図7のs270→s300)。
しかし、近似度の高い1以上の推定姿勢軌跡のうち、例えば、近似度が最大または最小の推定姿勢軌跡に対応する推定モデルについて、その推定モデルに対応する操作を運転者が実施しようとしていると推定するように構成してもよい。このためには、図7のs250で「YES」と判定された場合に、s270を行うことなく、s290へ移行し、近似度が最大の(最小角度が最も小さい)推定姿勢軌跡に対応する操作内容を実施しようとしていると推定するように構成すればよい。
また、上記実施形態では、操作補助手段220が、該当する操作対象に対応するランプを点灯させることで、その操作対象に対する操作をサポートするように構成されたものを例示した(図7のs310)。しかし、この操作のサポートは、該当するランプにおける明るさを他のランプよりも明るくすることにより実現してもよい。
また、上記実施形態では、操作補助手段220が、該当する操作対象に対応するランプを点灯させることにより、その操作対象に対する操作をサポートするように構成されたものを例示した(図7のs310)。しかし、その操作対象に対する操作をサポートするための具体的な構成は、上述した構成に限られない。
例えば、1以上の操作対象それぞれに対し、その操作対象の向きを変更することのできる変更機構が設けられている場合であれば、次のように構成することが考えられる。それは、操作推定手段210による推定結果に対応する操作対象について、その操作対象に対応する変更機構を制御して操作対象の向きを操作者側へ向けることにより、その操作を補助する、といった構成である。この場合、上記説明における「ランプ」とあるのを「変更機構」と読み替え、「ランプを点灯,消灯させる」とあるのを「操作対象の向きを変更,戻させる」と読み替えるものとする。
この構成であれば、推定結果に対応する操作対象の向きを、その操作者側へ向けることができるため、その操作対象をより操作しやすいものとすることができる。
また、1以上の操作対象それぞれに対し、その操作対象の一部または全体を振動させることのできる振動機構が設けられている場合であれば、次のように構成することが考えられる。それは、操作推定手段210により推定された操作内容において操作されるべき操作対象について、その操作対象に対応する振動機構を制御して操作対象の一部または全体を振動させ、その位置を触覚的に認識できるようにすることにより、その操作を補助する、といった構成である。この場合、上記説明における「ランプ」とあるのを「振動機構」と読み替え、「ランプを点灯,消灯させる」とあるのを「操作対象の振動を開始,終了させる」と読み替えるものとする。
この構成であれば、操作者が操作しようとした操作対象の一部または全体が振動するため、その振動により操作対象の位置を認識できるようになる結果、操作者の手などを触覚的に操作対象の位置まで導くことができる。
また、複数の操作対象の中に、カバーを開閉して内部に収容物を収容可能な収容操作対象(例えば、グローブボックス94,コンソールボックス96など)が含まれており、その収容操作対象がカバーを開閉するための開閉機構を備えている場合であれば、次のように構成することが考えられる。
それは、操作推定手段210により推定された操作内容において操作されるべき操作対象が、収容操作対象である場合、この収容操作対象における開閉機構を制御してカバーを開放させることにより、その操作を補助する、といった構成である。この場合、上記説明における「ランプ」とあるのを「開閉機構」と読み替え、「ランプを点灯,消灯させる」とあるのを「収容操作対象のカバーを開放,閉鎖させる」と読み替えるものとする。
この構成であれば、運転者が収容操作対象を操作しようとした場合に、その収容操作対象におけるカバーを先回りして開放することができるため、その内部に収容物を収容しようとする,または,その内部から収容物を取り出そうとする動作の一部を省略させることができる。
特に、このように構成した場合においては、操作推定手段210により推定された操作内容において操作されるべき操作対象が、収容操作対象以外である場合であって、すでに収容操作対象のカバーが開放されている場合には、操作補助手段220が、その収容操作対象における開閉機構を制御して前記カバーを閉鎖させる、こととなる。具体的には、図7におけるs310(操作対象が収容操作対象でない場合),および,同図s260において、開閉機構が制御されてカバーが閉鎖する。
そのため、収容操作対象のカバーが開放した状態で、運転者が他の操作対象の操作を実施しようとしている,または,操作対象の操作を実施しようとしていない場合に、その収容操作対象のカバーを自動的に閉鎖させることができる。
また、上記構成では、図14のs980で、操作対象に対する操作が要因で発進が遅延している旨のメッセージを表示部またはスピーカから出力することにより報知を実現しているが、この報知については、例えば、ランプを点灯させる,所定のアクチュエータを駆動させる,などといった方法により実現するように構成してもよい。
また、上記実施形態においては、停留操作テーブルおよび遷移操作テーブルが、先入れ先出し方式で所定数だけデータを登録可能なデータテーブルとして構成されている場合を例示した。しかし、これら操作テーブルについては、上限を設けずに無制限に登録される(任意または所定のタイミングでクリアされることとしてもよい)データテーブルとして構成してもよい。
また、上記実施形態においては、推定モデル修正手段410が、停留操作テーブル,遷移操作テーブルから外れ値を除いた所定数の人体特徴点,人体特徴点群を抽出したうえで、推定テーブルの修正を実現している(図11のs730〜s770)。このとき、操作テーブルへの人体特徴点,人体特徴点群の登録は、所定の操作が実施される毎になされるものであるため、該当する操作が充分な回数だけ行われていない状態で修正条件が満たされてしまうと、本来修正に用いられるべき所定数の人体特徴点,人体特徴点群が抽出できない。
この場合、推定モデル修正手段410は、所定数未満の人体特徴点,人体特徴点群に基づいて推定モデルの修正を行うこととすればよい。また、その不足分を、あらかじめ用意した人体特徴点または人体特徴点群で補ったうえで修正を行うこととしてもよい。
この後者のための構成としては、例えば、上述したように登録内容が随時更新される操作テーブルとは別に、操作内容毎にあらかじめ用意された固定値としての人体特徴点,人体特徴点群が登録された静的な操作テーブルを用意しておくとよい。そして、推定モデル修正手段410は、所定数の人体特徴点,人体特徴点群を抽出するにあたってその数が不足している場合、その不足分を、上記静的な操作テーブルから該当する操作に応じた人体特徴点,人体特徴点群から補ったうえで、推定テーブルの修正を実現することとすればよい。
このように構成すれば、修正に用いられるべき所定数の人体特徴点,人体特徴点群がメモリに蓄積される前の段階であっても、所定数の人体特徴点,人体特徴点群に基づいて、推定モデルの修正を行うことができる。
また、上記実施形態においては、車両の運転席に存在する運転者による操作を推定するように構成されたものを例示した。しかし、車両における運転席以外の座席(例えば、助手席)に存在する操作者につき、その操作者による操作を推定するように構成してもよい。この場合、その操作者を撮影できる位置関係でカメラ20を設置すると共に、図9のs420,s530では、その操作者による操作であるか否かをチェックするように構成すればよい。
また、その操作者だけでなく、運転者の操作についても同時に推定するように構成してもよい。この場合、その操作者および運転者を撮影できる位置関係で1以上のカメラ20を設置すると共に、図9のs420,s530では、運転者またはその操作者による操作であるか否かをチェックするように構成すればよい。
特に、この構成においては、図13のs830,図14のs980による報知を、該当する操作が運転者により行われていると推定された場合にのみ実施されるように構成するとよい。
操作支援システムの全体構成を示すブロック図 車両室内(a),および,カメラにより撮影された車両室内(b)を示す図 操作推定装置のマイコンにおける機能ブロック図 人体特徴点特定処理を示すフローチャート カメラにより撮影された画像であって、運転者が各操作対象を操作している様子を示す画像 人体特徴点特定手段により特定される人体特徴点の位置を示す図 操作補助処理を示すフローチャート 停留推定モデル,遷移推定モデルの一例を示すグラフ データ収集処理を示すフローチャート 操作者を特定するための処理を示すフローチャート 推定モデル修正処理を示すフローチャート 操作テーブルから読み出される特徴点,特徴点群の例を示す図 接近報知処理を示すフローチャート 発進報知処理を示すフローチャート
符号の説明
1…操作支援システム、10…操作推定装置、20…カメラ、30…ランプ群、40…ナビゲーション装置、50…空調装置、60…シフトレバー、70…センサ群、82…ルームミラー、84…ステアリング、86…シート、90…センタパネル右ブロア、92…センタパネル左ブロア、94…グローブボックス、96…コンソールボックス、110…画像取得手段、120…人体特徴点特定手段、210…操作推定手段、220…操作補助手段、310…操作状態監視手段、320…操作者判定手段、330…軌跡蓄積手段、410…推定モデル修正手段、510…接近検出手段、520…第1中断報知手段、610…交通情報取得手段、620…走行状態検出手段、630…第2中断報知手段。

Claims (19)

  1. 複数の操作対象,および,該操作対象を操作可能な位置に存在する操作者を含む画像を繰り返し取得する画像取得手段と、
    該画像取得手段により繰り返し取得される画像毎に、該画像に含まれる操作者における所定の人体特徴点を特定する人体特徴点特定手段と、
    該人体特徴点特定手段により特定された画像毎の人体特徴点それぞれに基づいて、操作者が実施しようとしている操作内容を推定する操作推定手段と、を備えており、
    該操作推定手段は、操作対象を操作する操作者が辿ると推定される姿勢軌跡(推定姿勢軌跡)をその操作内容毎にモデル化してなる遷移推定モデルそれぞれと、前記人体特徴点特定手段により特定された画像毎の人体特徴点それぞれから求められる操作者の姿勢軌跡(実姿勢軌跡)とを照合し、前記遷移推定モデルでモデル化された推定姿勢軌跡のうち、前記実姿勢軌跡との近似度が所定のしきい値を満たす前記推定姿勢軌跡につき、該推定姿勢軌跡に対応する操作内容を操作者が実施しようとしていると推定する
    ことを特徴とする操作推定装置。
  2. 前記操作推定手段は、前記推定姿勢軌跡をその操作内容毎にモデル化してなる遷移推定モデルそれぞれ,および,特定の操作対象を継続的に操作する操作者がとると推定される姿勢点(推定姿勢点)をその操作対象毎にモデル化してなる停留推定モデルそれぞれと、前記実姿勢軌跡とを照合し、前記遷移推定モデルでモデル化された推定姿勢軌跡のうち、前記実姿勢軌跡との近似度が所定のしきい値を満たす前記推定姿勢軌跡,または,前記推定姿勢点につき、その推定姿勢軌跡に対応する操作内容を操作者が実施しようとしている,または,その推定姿勢点に対応する操作対象を操作していると推定する
    ことを特徴とする請求項1に記載の操作推定装置。
  3. 前記操作推定手段による推定結果に対応する操作対象について、該操作対象への操作を補助する操作補助手段を備えている
    ことを特徴とする請求項1または2に記載の操作推定装置。
  4. 1以上の操作対象それぞれに対し、該操作対象を照らすことのできる位置関係で配置された1以上のランプが設けられている場合において、
    前記操作補助手段は、前記操作推定手段による推定結果に対応する操作対象について、該操作対象に対応するランプを点灯させて該操作対象を照らすことにより、その操作を補助する
    ことを特徴とする請求項3に記載の操作推定装置。
  5. 1以上の操作対象の中に、カバーを開閉して内部に収容物を収容可能な収容操作対象が含まれており、該収容操作対象が前記カバーを開閉するための開閉機構を備えている場合において、
    前記操作補助手段は、前記操作推定手段により推定された操作内容において操作されるべき操作対象が前記収容操作対象である場合、該収容操作対象における開閉機構を制御して前記カバーを開放させることにより、その操作を補助する
    ことを特徴とする請求項3または請求項4に記載の操作推定装置。
  6. 前記操作補助手段は、前記操作推定手段による推定結果に対応する操作対象が、前記収容操作対象以外である場合であって、すでに該収容操作対象の前記カバーが開放されている場合、該収容操作対象における開閉機構を制御して前記カバーを閉鎖させる
    ことを特徴とする請求項5に記載の操作推定装置。
  7. 車両に搭載された状態で使用され、
    前記画像取得手段が、車両における1以上の操作対象,および,車両における座席に存在する操作者を含む画像を繰り返し取得する、ように構成されている
    ことを特徴とする請求項1から6のいずれかに記載の操作推定装置。
  8. 1以上の操作対象の中に、車両におけるステアリングおよびシフトレバーが含まれている場合において、
    前記車両へと相対的に接近する物体が存在しているか否かを検出する接近検出手段と、
    前記操作推定手段による推定結果に対応する操作対象がステアリングおよびシフトレバー以外となっている状況で、前記物体検出手段により物体の接近が検出された際に、その操作対象に対する操作を中断すべき旨を報知する第1中断報知手段と、を備えている
    ことを特徴とする請求項7に記載の操作推定装置。
  9. 1以上の操作対象の中に、車両におけるステアリングおよびシフトレバーが含まれている場合において、
    前記車両の走行状態を検出する走行状態検出手段と、
    前記車両周辺の交通事情に関する情報を取得する交通情報取得手段と、
    前記操作推定手段による推定結果に対応する操作対象がステアリングおよびシフトレバー以外となっている状況で、前記走行状態検出手段により検出された走行状態が停車している状態となっており、かつ、前記交通情報取得手段により取得された情報が車両を発進させるべき交通事情に関する情報となっている場合に、その操作対象に対する操作を中断すべき旨を報知する第2中断報知手段と、を備えている
    ことを特徴とする請求項7または請求項8に記載の操作推定装置。
  10. 前記操作推定手段は、記憶部に記憶されている推定モデルを読み出したうえで、該読み出した推定モデルそれぞれと前記実姿勢軌跡とを照合する
    ことを特徴とする請求項1から9のいずれかに記載の操作推定装置。
  11. 1以上の操作対象それぞれに対する操作状態を検出する操作状態監視手段と、
    該操作状態監視手段により操作対象が操作されていることが検出された時点において、前記人体特徴点特定手段により特定された人体特徴点から求められる姿勢点(実姿勢点)に基づき、特定の操作対象を継続的に操作する操作者がとるべき推定姿勢点をモデル化してなる停留推定モデルのうち、その操作されていることが検出された操作対象に対応する停留推定モデルを修正する停留推定モデル修正手段と、を備えている
    ことを特徴とする請求項1から10のいずれかに記載の操作推定装置。
  12. 前記操作状態監視手段により操作対象が操作されていることが検出される毎に、該検出された時点において前記人体特徴点特定手段により特定された人体特徴点を、記憶部に蓄積させる停留点蓄積手段を備えており、
    前記停留推定モデル修正手段は、所定の修正条件が満たされた際に、前記停留点蓄積手段により記憶部に蓄積された複数の人体特徴点に基づいて、前記操作されていることが検出された操作対象に対応する停留推定モデルを修正する
    ことを特徴とする請求項11に記載の操作推定装置。
  13. 前記停留推定モデル修正手段は、前記停留点蓄積手段により記憶部に蓄積された所定数の人体特徴点からそれぞれ求められる実姿勢点を平均化し、該平均化された実姿勢点をモデル化してなる推定モデルに、前記操作されていることが検出された操作対象に対応する停留推定モデルを更新する
    ことを特徴とする請求項12に記載の操作推定装置。
  14. 前記停留推定モデル修正手段は、所定数の実姿勢点を平均化するにあたり、前記停留点蓄積手段により記憶部に蓄積された人体特徴点が所定数に満たない場合、その不足分を、操作対象毎にあらかじめ用意された人体特徴点のうちの前記操作されていることが検出された操作対象に対応する人体特徴点で補ったうえで、その平均化を行う
    ことを特徴とする請求項13に記載の操作推定装置。
  15. 特定の操作対象の操作が終了して別の操作対象の操作が行われるという操作内容につき、該操作内容を実施する操作者が辿るべき推定姿勢軌跡をモデル化してなる推定モデルが、前記遷移推定モデルの中に含まれている場合において、
    1以上の操作対象それぞれに対する操作状態を検出する操作状態監視手段と、
    該操作状態監視手段により操作されていることが検出されていた操作対象について操作されていることが検出されなくなった以降、別の操作対象が操作されていることが検出されるまでの間に、前記人体特徴点特定手段により特定された人体特徴点それぞれから求められる実姿勢軌跡に基づいて、その前者の操作対象の操作が終了して後者の操作対象の操作が行われるという操作内容に対応する遷移推定モデルを修正する遷移推定モデル修正手段と、を備えている
    ことを特徴とする請求項1から14のいずれかに記載の操作推定装置。
  16. 前記操作状態監視手段により操作されていることが検出されていた操作対象について操作されていることが検出されなくなった以降、別の操作対象が操作されていることが検出されるまでの間に、前記人体特徴点特定手段により特定された人体特徴点それぞれからなる人体特徴点群を、記憶部に蓄積させる遷移軌跡蓄積手段を備えており、
    前記遷移推定モデル修正手段は、所定の修正条件が満たされた際に、前記遷移軌跡蓄積手段により記憶部に蓄積された人体特徴点群から求められる実姿勢軌跡に基づいて、該当する操作内容に対応する遷移推定モデルを修正する
    ことを特徴とする請求項15に記載の操作推定装置。
  17. 前記遷移推定モデル修正手段は、前記遷移軌跡蓄積手段により記憶部に蓄積された所定数の人体特徴点群からそれぞれ求められる実姿勢軌跡を平均化し、該平均化した実姿勢軌跡をモデル化してなる推定モデルに、該当する遷移推定モデルを更新する
    ことを特徴とする請求項16に記載の操作推定装置。
  18. 前記遷移推定モデル修正手段は、所定数の実姿勢軌跡を平均化するにあたり、前記遷移軌跡蓄積手段により記憶部に蓄積された人体特徴点群が所定数に満たない場合、その不足分を、操作内容毎にあらかじめ用意された人体特徴点群のうちの該当する操作内容に対応する人体特徴点群で補ったうえで、その平均化を行う
    ことを特徴とする請求項17に記載の操作推定装置。
  19. 請求項1から18のいずれかに記載の操作推定装置の備える全ての手段として機能させるための各種処理手順をコンピュータシステムに実行させるためのプログラム。
JP2006327403A 2006-12-04 2006-12-04 操作推定装置およびプログラム Active JP4670803B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006327403A JP4670803B2 (ja) 2006-12-04 2006-12-04 操作推定装置およびプログラム
US11/987,800 US8077970B2 (en) 2006-12-04 2007-12-04 Operation estimating apparatus and related article of manufacture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006327403A JP4670803B2 (ja) 2006-12-04 2006-12-04 操作推定装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2008140268A JP2008140268A (ja) 2008-06-19
JP4670803B2 true JP4670803B2 (ja) 2011-04-13

Family

ID=39475812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006327403A Active JP4670803B2 (ja) 2006-12-04 2006-12-04 操作推定装置およびプログラム

Country Status (2)

Country Link
US (1) US8077970B2 (ja)
JP (1) JP4670803B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5028038B2 (ja) * 2006-07-06 2012-09-19 クラリオン株式会社 車載表示装置および車載表示装置の表示方法
JP4420081B2 (ja) * 2007-08-03 2010-02-24 株式会社デンソー 行動推定装置
JP5168000B2 (ja) * 2008-07-17 2013-03-21 トヨタ自動車株式会社 操作支援装置および操作支援方法
JP5344715B2 (ja) * 2008-11-07 2013-11-20 国立大学法人北海道大学 コンテンツ検索装置およびコンテンツ検索プログラム
WO2010061448A1 (ja) * 2008-11-27 2010-06-03 パイオニア株式会社 操作入力装置、情報処理装置及び選択ボタン特定方法
JP4613999B2 (ja) * 2008-12-22 2011-01-19 株式会社デンソー 行動推定装置、プログラム
JP4683123B2 (ja) 2008-12-24 2011-05-11 株式会社デンソー 行動推定装置、プログラム
JP5200926B2 (ja) 2008-12-26 2013-06-05 トヨタ自動車株式会社 運転支援装置
JP4973667B2 (ja) * 2009-01-16 2012-07-11 株式会社デンソー 操作推定装置およびプログラム
JP5648207B2 (ja) * 2009-09-04 2015-01-07 現代自動車株式会社 車両用操作装置
JP5233977B2 (ja) * 2009-12-11 2013-07-10 株式会社デンソー 乗員姿勢推定装置
JP5407886B2 (ja) * 2010-01-15 2014-02-05 アイシン・エィ・ダブリュ株式会社 減速制御装置、方法およびプログラム
US8976230B1 (en) * 2010-06-28 2015-03-10 Vlad Vendrow User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
JP2012118761A (ja) * 2010-12-01 2012-06-21 Panasonic Corp 操作入力装置
JP5842157B2 (ja) 2011-04-22 2016-01-13 パナソニックIpマネジメント株式会社 車両用入力装置及び車両用入力方法
CN102214296B (zh) * 2011-06-03 2012-11-28 东南大学 一种基于空间比例的驾驶人姿态特征提取方法
JP2013037454A (ja) * 2011-08-05 2013-02-21 Ikutoku Gakuen 姿勢判定方法、プログラム、装置、システム
JP5944287B2 (ja) * 2012-09-19 2016-07-05 アルプス電気株式会社 動作予測装置及びそれを用いた入力装置
JP6303907B2 (ja) * 2014-08-08 2018-04-04 株式会社デンソー 運転者監視装置
US10607095B1 (en) * 2015-01-13 2020-03-31 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for classifying digital images
JP6443393B2 (ja) * 2016-06-01 2018-12-26 トヨタ自動車株式会社 行動認識装置,学習装置,並びに方法およびプログラム
US9996757B1 (en) * 2016-06-14 2018-06-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems, and methods for detecting various actions of a vehicle operator
US9990553B1 (en) 2016-06-14 2018-06-05 State Farm Mutual Automobile Insurance Company Apparatuses, systems, and methods for determining degrees of risk associated with a vehicle operator
US10452933B1 (en) * 2017-01-19 2019-10-22 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for generating a vehicle driver model for a particular vehicle
US11281920B1 (en) * 2019-05-23 2022-03-22 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for generating a vehicle driver signature
JP7402084B2 (ja) 2020-03-05 2023-12-20 本田技研工業株式会社 乗員行動判定装置
DE102022119855A1 (de) 2022-08-08 2024-02-08 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Detektieren einer Ablenkung eines Fahrzeugführers

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259990A (ja) * 2001-02-28 2002-09-13 Nippon Telegr & Teleph Corp <Ntt> 文字入力方法及び装置並びに文字入力プログラムとこのプログラムを記憶した記憶媒体
JP2004145723A (ja) * 2002-10-25 2004-05-20 Keio Gijuku ハンドパターンスイッチ装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2006309448A (ja) * 2005-04-27 2006-11-09 Sony Corp ユーザインターフェース装置及び方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134090A (ja) 1997-10-30 1999-05-21 Tokai Rika Co Ltd 操作信号出力装置
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP3651571B2 (ja) 1999-03-31 2005-05-25 株式会社東芝 ドライバ状態検知システム
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
JP2001216069A (ja) 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP3858570B2 (ja) 2000-06-29 2006-12-13 日産自動車株式会社 脇見状態検出装置
JP2002133401A (ja) 2000-10-18 2002-05-10 Tokai Rika Co Ltd 操作者判定方法及び操作者判定装置
JP2002236534A (ja) 2001-02-13 2002-08-23 Mitsubishi Motors Corp 車載機器操作装置
JP2003109015A (ja) 2001-10-01 2003-04-11 Masanobu Yamamoto 身体動作測定方式
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP2004067031A (ja) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd 操作者判別装置およびこれを用いた車載装置
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP2005063090A (ja) 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
US8094928B2 (en) * 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259990A (ja) * 2001-02-28 2002-09-13 Nippon Telegr & Teleph Corp <Ntt> 文字入力方法及び装置並びに文字入力プログラムとこのプログラムを記憶した記憶媒体
JP2004145723A (ja) * 2002-10-25 2004-05-20 Keio Gijuku ハンドパターンスイッチ装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2006309448A (ja) * 2005-04-27 2006-11-09 Sony Corp ユーザインターフェース装置及び方法

Also Published As

Publication number Publication date
US20080130953A1 (en) 2008-06-05
JP2008140268A (ja) 2008-06-19
US8077970B2 (en) 2011-12-13

Similar Documents

Publication Publication Date Title
JP4670803B2 (ja) 操作推定装置およびプログラム
JP6340969B2 (ja) 周辺監視装置、及びプログラム
CN108602466B (zh) 用于跟踪运动对象以避免干扰车门操作的系统及方法
US9317759B2 (en) Driving assistance device and driving assistance method
US9221341B2 (en) Vehicle operation input apparatus and control method for vehicle operation input apparatus
US20200017123A1 (en) Drive mode switch controller, method, and program
JP2005242694A (ja) ハンドパターンスイッチ装置
WO2018163456A1 (ja) 運転モード切替制御装置、方法およびプログラム
US20150293745A1 (en) Text-reading device and text-reading method
US20200307643A1 (en) Vehicle control system and vehicle
US20190236343A1 (en) Gesture detection device
CN109969189A (zh) 车辆
JP2017129973A (ja) 運転支援装置および運転支援方法
JP2006209637A (ja) 車両用警報装置
US9845010B2 (en) Vehicular display device
JP4683123B2 (ja) 行動推定装置、プログラム
JP2007038773A (ja) 車載カメラ点検装置
JP2010146471A (ja) 行動推定装置、プログラム
US11679677B2 (en) Device control system, moving vehicle, device control method, and non-transitory storage medium
CN111661064B (zh) 车辆控制装置、车辆控制方法、车辆以及存储介质
EP3798059B1 (en) Control device and control method for vehicle-mounted equipment
JP2009113599A (ja) 車載用入力装置
JP5083137B2 (ja) 運転支援装置
JP2018060456A (ja) 車両用制限速度検出装置
WO2017017938A1 (ja) ジェスチャ操作システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

R151 Written notification of patent or utility model registration

Ref document number: 4670803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250