JP2014058268A - 動作予測装置及びそれを用いた入力装置 - Google Patents

動作予測装置及びそれを用いた入力装置 Download PDF

Info

Publication number
JP2014058268A
JP2014058268A JP2012205495A JP2012205495A JP2014058268A JP 2014058268 A JP2014058268 A JP 2014058268A JP 2012205495 A JP2012205495 A JP 2012205495A JP 2012205495 A JP2012205495 A JP 2012205495A JP 2014058268 A JP2014058268 A JP 2014058268A
Authority
JP
Japan
Prior art keywords
motion prediction
hand
area
motion
operation panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012205495A
Other languages
English (en)
Other versions
JP5944287B2 (ja
Inventor
Tatsumaro Yamashita
龍麿 山下
Takeshi Shirasaka
剛 白坂
Toshiyuki Hoshi
敏行 星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Priority to JP2012205495A priority Critical patent/JP5944287B2/ja
Priority to US13/950,913 priority patent/US20140079285A1/en
Priority to CN201310424909.5A priority patent/CN103661165B/zh
Publication of JP2014058268A publication Critical patent/JP2014058268A/ja
Application granted granted Critical
Publication of JP5944287B2 publication Critical patent/JP5944287B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • B60K35/60
    • B60K2360/143
    • B60K2360/146
    • B60K2360/21
    • B60K2360/774

Abstract

【目的】 操作体の動作予測をして従来に比べて操作性を向上させた動作予測装置及びそれを用いた入力装置を提供することを目的としている。
【解決手段】 本実施形態における動作予測装置28は、画像情報を取得するためのCCDカメラ(撮像素子)11と、画像情報に基づいて操作体の動作予測を行う制御部29と、を有しており、制御部29では、領域規制部23にて画像情報により動作検出領域を特定し、算出部24で例えば操作体の重心の移動ベクトルを算出して、動作検出領域内に進入した操作体の移動軌跡を追従し、動作予測部26では移動軌跡に基づいて操作体の動作予測を行うことを特徴とするものである。
【選択図】図2

Description

本発明は、操作体(例えば手)に対する動作予測が可能な動作予測装置及び、動作予測装置を車両に用いた入力装置に関する。
下記特許文献1には、カーナビゲーション装置に関する発明が開示されている。特許文献1におけるカーナビゲーション装置は、車内に設置されたカメラや、カメラの撮影画像に基づいて操作者が運転者か助手席の乗員かを識別する画像判別手段を備えている。そして、自動車が走行状態で操作者が運転者であると識別されたとき操作を無効にするように制御されている。
特許文献1によれば、撮影画像内に腕が映し出されたとき、腕領域の形状等をもとに操作者が運転者か助手席の乗員かを識別している。
特開2005−274409号公報
特許文献1に記載された発明によれば、操作パネルからのキー入力が検出されたか否かを検出し、このキー入力をトリガーにして、その操作者が運転者か助手席の乗員かの判定をカメラ画像に映し出された腕領域の形状等から判別している。
このように特許文献1に記載された発明では、操作パネルに対する操作性は従来と変わりがない。すなわち、例えば操作者が助手席の乗員であれば、従来と同様に操作パネルにタッチして入力を行うものであり、従来よりも良好な操作性や迅速な操作性を得ようとするものではない。
また、特許文献1に記載された発明では、操作者が運転者であるときに操作を無効にする制御を、キー入力をトリガーとして行っているため、操作を無効にするか否かの判断が遅れやすく、安全性に支障をきたす恐れがあった。
また特許文献1では、操作を無効にするにも、まずキー入力が必要とされるので操作に無駄が生じていた。
そこで本発明は上記従来の課題を解決するものであり、特に、操作体の動作予測をして従来に比べて操作性を向上させた動作予測装置及びそれを用いた入力装置を提供することを目的としている。
本発明における動作予測装置は、画像情報を取得するための撮像素子と、前記画像情報に基づいて操作体の動作予測を行う制御部と、を有しており、
前記制御部では、前記画像情報により特定された動作検出領域内に進入した前記操作体の移動軌跡を追従し、前記移動軌跡に基づいて前記動作予測を行うことを特徴とするものである。
このように本発明では、撮像素子により撮像された画像情報により動作検出領域を特定し、その動作検出領域内にて移動する操作体の移動軌跡を追従可能な制御部を備えている。そして本発明では、操作体の移動軌跡に基づいて動作予測を可能としている。したがって例えば操作パネルに対して入力操作を行う手前の位置で、操作パネルに対してどのような入力操作が行われるかの動作予測を行うことが可能であり、従来とは違った操作性や迅速な操作性、快適な操作性を得ることが可能である。
また、本発明における動作予測装置を車両用として用いた場合に、安全性を従来に比べて高めることができる。
また本発明では、操作体の動作予測を行い、それをもとに入力操作制御を行うことが可能であり、特許文献1記載の発明のようにキー入力をトリガーとして入力操作制御を行うものでなく、動作の無駄を従来に比べて省くことができる。
本発明では、前記制御部では、前記操作体の重心を算出し、前記重心の移動ベクトルを前記操作体の移動軌跡として追従することが好ましい。これにより、操作体に対する移動軌跡の追従及び移動軌跡に基づく動作予測を容易にかつスムースに得ることができる。
また本発明では、前記動作検出領域内にて撮像された前記操作体のうち、手の部分を推定して、前記手の移動軌跡を追従することが好ましい。動作検出領域内には、手だけでなく腕の部分も映し出されるが、手の部分だけを切り出して、手の移動軌跡を見ることで、移動軌跡の算出を容易にでき、制御部に対する算出負担を低減でき、また、動作予測が行いやすくなる。
また本発明では、前記手の推定は、前記操作体の輪郭を検出するステップ、前記輪郭から各箇所のサイズを求めて、決められた値以上の領域を有効領域とするステップ、前記有効領域内において前記輪郭が外接する領域を検出し、前記外接する領域の縦長さが閾値以下であるか否かを判定するステップを有して行われることが好ましい。この際、前記外接する領域の縦長さが閾値以下であるとき、前記有効領域の中心を手の重心と規定することが好ましい。また、前記外接する領域の縦長さが閾値以上であるとき、前記外接する領域の縦長さを制限して手推定領域を規定した状態で再度、前記有効領域の判定を行うことが好ましい。これにより手の推定を適切に行うことが可能である。
また本発明では、前記制御部では、前記操作体の移動軌跡を、前記動作検出領域内への進入位置から追従することが好ましい。すなわち操作体が動作検出領域を構成する複数の辺(境界)のいずれかの位置から動作検出領域内に進入したかを見ることで、操作者の特定等が行いやすくなる。
また本発明では、前記動作検出領域内は複数の区画に分割されており、前記制御部では、前記操作体の移動軌跡が、所定の前記区画内に進入したことに基づいて前記動作予測を実行することが好ましい。このように本発明では、操作体の移動軌跡を追従しながら、操作体がある所定の区画内に進入したことに基づいて動作予測を実行することで、動作予測に対する制御部への負担を軽減でき、また動作予測の精度を上げることができる。
また本発明における入力装置は、上記に記載された動作予測装置と、前記操作体により入力操作される操作パネルと、を有し、
前記動作予測装置及び前記操作パネルは車両内に設けられており、
少なくとも前記操作パネルの前方が撮像されるように前記撮像素子が配置されており、
前記制御部では、前記操作体の動作予測に基づいて、前記操作パネルに対する操作補助を行うことを特徴とするものである。
このように本発明の入力装置によれば、操作者が操作パネルを入力操作するより手前の位置で、操作体の動作予測を行い、動作予測に基づいて操作パネルに対する操作補助を行うことができる。これにより、快適な操作性及び安全性を向上させることができる。
また本発明では、前記制御部では、前記操作体の前記動作検出領域内への進入位置に基づいて、前記操作パネルに対する操作者が、運転者か、前記運転者以外の乗員かを識別可能とされることが好ましい。本発明では、操作体の移動軌跡を動作検出領域内への進入位置から追従することで、操作者が運転者か、運転者以外の乗員かを容易にかつ適切に識別することができる。
本発明の動作予測装置及びそれを用いた入力装置によれば、従来とは違った操作性や迅速な操作性、快適な操作性を得ることが可能である。また、車両用として用いた場合に、安全性を従来に比べて高めることができる。
また本発明では、操作体の動作予測を行い、それをもとに入力操作制御を行うことが可能であり、特許文献1記載の発明のようにキー入力をトリガーとして入力操作制御を行うものでなく、動作の無駄を従来に比べて省くことができる。
図1は、本実施形態における入力装置を装備した車両内の部分模式図である。 図2は、本実施形態における入力装置のブロック図である。 図3は、CCDカメラ(撮像素子)にて撮像された画像を示す模式図である。 図4(a)は、撮像素子、操作パネル、及び、撮像素子により撮像される画像範囲を側面から表した模式図であり、図4(b)は、撮像素子、操作パネル、及び、撮像素子により撮像される画像範囲を正面から表した模式図である。 図5は、手の部分を推定するステップを示す模式図である。 図6(a)は、CCDカメラ(撮像素子)の画像情報の取り込みから操作パネルに対する操作補助の実行までのステップを説明するためのフローチャート図である。 図6(b)は、特に手の部分を推定するステップを示すフローチャート図である。 図7は、CCDカメラの画像情報により特定された動作検出領域内での運転者の操作体(手)の移動軌跡を説明するための模式図である。 図8は、図7に示される操作体(手)の移動軌跡を追従した際、操作体が操作パネルに近い第1の区画内に進入したことを説明するための模式図である。 図9は、運転者の操作体(手)が、直接、操作パネルに近い第1の区画内に進入したことを説明するための模式図である。 図10は、操作パネルの入力操作面を示す模式図である。 図11(a)は、操作パネルに対する操作補助の一形態を示すものであり、操作体の動作予測に基づいて操作体の入力操作が予定されたアイコンを拡大表示した状態を示す模式図である。 図11(b)は、図11(a)の変形例であり、図11(a)とは異なった形態としてアイコンを拡大表示した状態を示す模式図である。 図12は、操作パネルに対する操作補助の一形態を示すものであり、操作体の動作予測に基づいて操作体の入力操作が予定されたアイコンが点灯した状態を示す模式図である。 図13は、操作パネルに対する操作補助の一形態を示すものであり、操作体の動作予測に基づいて操作体の入力操作が予定されたアイコン上にカーソル表示が重なった状態を示す模式図である。 図14は、操作パネルに対する操作補助の一形態を示すものであり、操作体の動作予測に基づいて操作体の入力操作が予定されたアイコン以外のアイコンがグレーアウト表示とされた状態を示す模式図である。 図15は、操作パネルに対する操作補助の一形態を示すものであり、操作パネル上のすべてのアイコンがグレーアウト表示とされた状態を示す模式図である。 図16は、CCDカメラの画像情報により特定された動作検出領域内での助手席の乗員(操作者)の操作体(手)の移動軌跡を説明するための模式図である。 図17は、CCDカメラの画像情報により特定された動作検出領域内での後部座席の乗員(操作者)の操作体(手)の移動軌跡を説明するための模式図である。 図18は、図8とは異なる運転者の操作体(手)の移動軌跡を追従した模式図を示す。 運転者と助手席の乗員の双方の操作体(手)が動作検出領域内に進入した状態を示す模式図である。 図20は、指の位置を推定するためのアルゴリズムを説明するための模式図である。
図1は、本実施形態における入力装置を装備した車両内の部分模式図、図2は、本実施形態における入力装置のブロック図、図3は、CCDカメラ(撮像素子)にて撮像された画像を示す模式図、図4(a)は、撮像素子、操作パネル、及び、撮像素子により撮像される画像範囲を側面から見た模式図であり、図4(b)は、撮像素子、操作パネル、及び、撮像素子により撮像される画像範囲を正面から見た模式図である。
図1は、車両の車内前列付近を示している。図1の車両は左ハンドルであるが、右ハンドルにも本実施形態の入力装置を適用できる。
図1に示すように車内の天井10には、CCDカメラ(撮像素子)11が取り付けられている。図1では、CCDカメラ11をバックミラー12付近に配置している。ただしCCDカメラ11による画像が少なくとも操作パネル18の前方を映し出したものであれば、CCDカメラ11の設置位置を特に限定するものではない。また、CCDカメラ11としているが、赤外線を検知可能なカメラを用いることで夜間でも操作体の動作を検知可能とできる。
図1に示すようにセンターコンソール13には、運転席14と助手席15との間の位置に配置されたシフト操作体16を備える中央操作部17や、操作パネル18が配置されている。
操作パネル18は、例えば静電容量式タッチパネルであり、カーナビゲーション装置における地図表示や、音楽再生画面等を表示できる。そして操作者は操作パネル18の画面を直接、指等により入力操作することが可能とされている。
図4(a)に示すように天井10に取り付けられたCCDカメラ11は、少なくとも操作パネル18の前方が撮像される位置に取り付けられる。ここで操作パネル18の前方とは、操作パネル18の画面18aに対して直交する方向18bであって指等により操作パネル18を入力操作する側の空間領域18cを指す。
図4(a)(b)に示す符号11aは、CCDカメラ11の中心軸(光軸)を示し、撮像範囲をRで示した。
図4(a)に示すように撮像範囲Rを横(側面側)から見ると、撮像範囲Rには操作パネル18及び操作パネル18の前方に位置する空間領域18cが映し出されている。また図4(b)に示すように、撮像範囲Rを正面からみると、撮像範囲Rの幅(映し出される画像情報の最も広い幅)T1は、操作パネル18の幅T2よりも広くなっている。
図2に示すように、本実施形態における入力装置20は、CCDカメラ(撮像素子)11と、操作パネル18と、制御部21とを有して構成される。
図2に示すように、制御部21には、画像情報検出部22、領域規制部23、算出部24、動作予測部25及び操作補助機能部26が含まれている。
ここで図2では制御部21を一つにまとめて図示したが、例えば制御部21が複数存在し、図2に示す画像情報検出部22、領域規制部23、算出部24、動作予測部25及び操作補助機能部26が複数の制御部に分けて組み込まれていてもよい。
すなわち画像情報検出部22、領域規制部23、算出部24、動作予測部25及び操作補助機能部26を制御部にどのように組み込むかについては適宜選択できる。
なお図2に示すCCDカメラ(撮像素子)11と、画像情報検出部22、領域規制部23、算出部24及び動作予測部25を備える制御部29とで動作予測装置28が構成されている。この動作予測装置28を車両内に組み込み、操作パネル18との間で信号の送受信を可能とした車両システムが、入力装置20を構成している。
画像情報検出部22は、CCDカメラ11にて撮像された画像情報を取得する。ここで画像情報とは撮影により得られた画像の電子情報である。図3は、CCDカメラ11にて撮像された画像34を示している。図3に示すように画像34には、操作パネル18と、操作パネル18の前方の空間領域18cとが映し出されている。操作パネル18の前方にはシフト操作体16等が配置された中央操作部17が映っている。また、図3の画像34には、操作パネル18及び中央操作部17の左右両側の領域35,36も映っている。左側の領域35は運転席側の領域であり、右側の領域36は助手席側の領域である。図3では、左右両側の領域35,36に映し出された画像を省略している。なおCCDカメラ11の種類や画素数等については特に限定されない。
図2に示す領域規制部23は、CCDカメラ11にて取得された画像情報により、操作体の移動軌跡の追従及び動作予測に用いる領域を特定する。
図3に示す画像34のうち操作パネル18から前方に位置する画像中央領域を動作検出領域30として特定する。すなわち動作検出領域30は、複数の辺30a〜30dに囲まれた領域であり、左右両側の領域35,36が動作検出領域30から外されている。図3に示す動作検出領域30と、その左右両側の領域35,36との境界(辺)30a,30bが点線で示されている。また、図3では辺30c,30dが画像34の前後方向における端の部分となっているが、前記辺30c,30dを画像34の内側に配置してもよい。
図3に示す画像34全体を動作検出領域30とすることもできる。ただし、かかる場合、操作体の移動軌跡の追従や動作予測に費やす計算量が増えてしまい動作予測の遅延や装置の短寿命に繋がり、また多大な計算を可能とするには生産コストの増大にも繋がる。よって、画像34全体を使うのではなく、限られた範囲を動作検出領域30として用いることが好適である。
また図3に示す形態では、動作検出領域30を2つの区画31,32に分割している。区画31と区画32との境界33が一点鎖線で示されている。動作検出領域30を複数の区画に分割するに際し、どのように分割するかは任意に決定することができる。2つよりも多い区画に分割することも可能である。また区画31は操作パネル18に近い側で、操作体の動作予測及び操作パネル18に対する操作補助の実行には、区画31内での操作体の動作状態が重要であるため、区画31内をより細かく区切り、操作補助の実行タイミングをきめ細かく決めることができる。
なお以下では、区画31を第1の区画と称し、区画32を第2の区画と称することとする。図3に示すように、第1の区画31は、画像内に操作パネル18を含み、第2の区画32よりも操作パネル18に近い側の領域となっている。
図2に示す算出部24は、動作検出領域30内での操作体の移動軌跡を算出する部分である。算出方法を特に限定するものではないが、例えば、次のような方法で操作体の移動軌跡を算出することができる。
図5(a)では、腕40と手41との輪郭42の情報を検出している。輪郭42をとらえるには、CCDカメラ11により撮像された画像を計算量削減のためサイズを縮小し、その後、認識処理を行うため白黒の画像に変換する処理を行う。この際、詳細な画像を用いることで操作体の認識を精度良く行えるが、本実施形態においてはサイズを縮小していることで計算量を削減し、素早い処理が行えるようにしている。その後、画像を白黒に変換した後は、輝度の変化を元に操作体を検出する。また、赤外線検知カメラを用いた場合は画像の白黒変換処理は不要となる。その後、例えば前フレームと今のフレームとを使用しオプティカルフローを計算して動きベクトルを検出する。この際、ノイズの影響を減らすために動きベクトルを2×2画素で平均化する。そしてこの動きベクトルが所定以上のベクトル長(移動量)であったときに、図5(a)に示すように、動作検出領域30内に現れる腕40から手41に至る輪郭42を操作体として検出する。
次に図5(a)に示すように画像の縦長さ(Y1−Y2)を制限して、図5(b)に示すように画像を切り出して手41の領域を推定する。この時、輪郭42から操作体の各箇所のサイズを計算し、決められた値以上の領域を有効領域とする。ここで下限を定めている理由は、一般的に手は腕よりも幅が広いことを利用して、腕を除外するためである。また、上限を設けていない理由は、動作検出領域30内に身体も撮像された場合、かなりの面積で動きベクトルが発生するため、上限を設けると検出できない場合があるからである。そして、有効領域内において輪郭42を外接する領域を検出する。例えば、図5(b)では、全輪郭42を構成するXY座標を調べ、X座標の最小、最大値を求めて図5(c)に示すように有効領域の幅(X方向の長さ)を縮める。このようにして輪郭42に外接する最小矩形領域43を検出し、最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値以下であるかを判別する。所定閾値以下であった場合にはこの有効領域内において重心Gの算出を行う。
また、最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値以上であった場合には腕が前記下限のサイズ縦長さをY1側から所定距離の範囲で制限し、画像を切り出す(図5(d))。更に切り出された画像において輪郭42に外接する最小矩形領域44を検出し、この最小矩形領域44を全方向に数画素分拡大した領域を手推定領域とする。拡大した領域を手推定領域とすることで、輪郭42の検出処理過程において意図せずに除外されてしまった手41の領域を再度認識させることが可能となる。この手推定領域において再度前述した有効領域の判定を行う。所定の閾値以下となった場合には有効領域の中心を手41の重心Gとして規定する。重心Gの算出方法は上記に限定するものではなく、従来から存在するアルゴリズムによっても求めることができる。ただし、車両の走行中に行う操作体の動作予測であるので、素早い重心Gの算出が必要であり、算出された重心Gの位置がきわめて高精度であることを要しない。特に重心Gと定義された位置の動きベクトルを連続的に算出できることが重要である。この動きベクトルを用いることで、例えば周囲の照明の状況が逐次変わるような状況下のように、操作体である手の形状が把握し難い場合においても、確実に動作予測を行うことが可能となる。また、上記したように処理においては輪郭42の情報と輪郭42に外接する領域情報の2つを用いることで手と腕の区別を確実に行うことが可能である。
上記した動きベクトルを検出している間中、移動体(ここでは手41)の重心Gの移動ベクトルを算出し、重心Gの移動ベクトルを移動体の移動軌跡として得ることができる。
図2に示す動作予測部25は、操作体の移動軌跡に基づいて操作体がこの後、どの位置に達するかを予測する。例えば操作体の移動軌跡が操作パネル18に対して真っ直ぐに向かっているのか、あるいは、移動軌跡が操作パネル18に対して斜めに傾いているのかによって、このままいけば、操作体が操作パネル18の画面18a上のどのあたりに到達するのかを予測する。
図2に示す操作補助機能部26は、操作体の動作予測に基づいて、操作パネル18に対する操作補助を行うものである。本実施形態における「操作補助」とは、良好な操作性や高い安全性を確保可能なように入力操作や入力操作位置の表示形態等を制御・調整することを指す。操作補助の具体例は後述する。
以下、図6(a)のフローチャートを用いて、画像情報の取り込みから操作補助の実行までのステップについて説明する。
まず図6(a)に示すステップST1では、CCDカメラ11の画像情報を図2に示す画像情報検出部22により取り込む。そしてステップST2では、図2に示す領域規制部23により画像情報から動作検出領域30を特定し、さらに動作検出領域30内を複数の区画31,32に分割する(図5参照)。
図3に示す画像34全体を動作検出領域30として規定することもできる。ただし算出量(計算量)の削減のために、少なくとも操作パネル18の前方の領域を動作検出領域30として特定すればよい。
続いて図6(a)に示すステップST3では、図2に示す算出部24により、動きベクトルの検出を行う。なお動きベクトルの検出については、図6(a)に示すステップST3のみに示したが、前のフレームと今のフレームとの間で常に動きベクトルの有無を検出している。
図6(a)に示すステップST4では、図5で示したように操作体(手)を特定して、操作体(手)の重心Gを図2に示す算出部24により算出する。
本実施形態では図5で示したように手の部分を操作体として用いているが、手の部分を推定し、手の重心Gを求めるまでのフローチャートを図6(b)に示す。
図6(b)では、図6(a)に示したCCDカメラ11による画像を取り込んだ後、ステップST10で画像サイズを縮小し、その後、ステップST11で認識処理を行うため白黒の画像に変換する処理を行う。続いて、ステップST12では、例えば前フレームと今のフレームとを使用しオプティカルフローを計算して動きベクトルを検出する。なおこの動きベクトルの検出については図6(a)のステップST3にも示されている。なお、図6(b)では、動きステップが検出されたものとして次のステップST13に移行する。
ステップST13では、動きベクトルを2×2画素で平均化する。例えばこの時点で80×60ブロックとなる。
次にステップST14では、各ブロックごとにベクトル長さ(移動量)を計算する。そしてベクトル長さが決められた値よりも大きい場合に、有効な動きをするブロックと判定する。
続いて、図5(a)に示したように操作体の輪郭42を検出する(ステップST15)。
次に、ステップST16では、輪郭42から操作体の各箇所のサイズを計算し、決められた値以上の領域を有効領域とする。有効領域内において輪郭42を外接する領域を検出する。図5(b)で説明したように、例えば、全輪郭42を構成するXY座標を調べ、X座標の最小、最大値を求めて図5(c)に示すように有効領域の幅(X方向の長さ)を縮める。
このようにして輪郭42に外接する最小矩形領域43を検出し、ステップST17では、最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値以下であるかを判別する。所定閾値以下であった場合には、ステップST18に示すように、この有効領域内において重心Gの算出を行う。
また、ステップST17において最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値以上であった場合には、腕の前記下限のサイズ縦長さをY1側から所定距離の範囲で制限し、画像を切り出す(図5(d)参照)。そしてステップST19に示すように、切り出された画像において輪郭42に外接する最小矩形領域43を検出し、この最小矩形領域43を全方向に数画素分拡大した領域を手推定領域とする。
そして、上記した手推定領域において、ステップST20〜ステップST22では、ステップST14〜ステップST16と同様のステップを実行したのち、ステップST19で、有効領域の中心を手41の重心Gとして規定する。
以上のようにして、操作体(手)の重心Gを算出したのち、図6(a)に示すステップST5では、操作体(手)の移動軌跡を追従する。ここでは移動軌跡の追従を重心Gの移動ベクトルにより求めることができる。追従とは、動作検出領域30内に進入した手の動きを追い続ける状態を指す。上記のように手の重心Gの移動ベクトルにより移動軌跡の追従を可能とするが、重心Gの取得は、例えば、前フレームと今のフレームとを使用しオプティカルフローを計算して動きベクトルを検出した際に行うため、重心Gの取得間に時間的な間隔を有しているが、このような重心Gの取得間の時間的な間隔も含めて本実施形態における追従に該当する。
また、操作体の移動軌跡の追従は、操作体が動作検出領域30に進入したと検出されたときから開始されることが好ましいが、しばらく時間を置いた後に、例えば操作体が、第1の区画31と第2の区画32との境界33付近に到達したと判断された後から、操作体の移動軌跡の追従を開始してもよいし、移動軌跡の追従の開始時期については任意に決定できる。なお以下の実施形態では操作体が動作検出領域30内に進入したと判断された時点で、移動軌跡の追従を開始している。
図7は、今、運転者が操作パネル18を操作しようとして手41を操作パネル18の方向に向けて伸ばした状態を示している。
図7に示す矢印L1は、動作検出領域30内における手41の移動軌跡(以下、移動軌跡L1と称する)を示している。
図7に示すように手41の移動軌跡L1は動作検出領域30を構成する複数の区画31,32のうち操作パネル18から遠い側の第2の区画32内を第1の区画31の方向に向けて移動している。
図6(a)に示すステップST6では、移動軌跡L1が、操作パネル18に近い第1の区画31内に進入したか否かを検出する。移動軌跡L1が第1の区画31内に進入していない場合には、ステップST5に戻り、手41の移動軌跡L1を図6(a)に示すステップST3〜ステップST5のルーチンにより追従し続ける。このように図6(a)では図示していないが、ステップST5に戻った後も、動作予測中では常にステップST3〜ステップST5のルーチンが作用している。
図8に示すように手41の移動軌跡L1が第2の区画32から操作パネル18に近い第1の区画31内に進入すると、図6(a)に示すステップST6を満たしてステップST7に移行する。なお移動軌跡L1が第1の区画31内に進入したか否かは図2に示す算出部24にて検出することができる。あるいは、移動軌跡L1が第1の区画31内に進入したか否かを判定する判定部を算出部24とは別に制御部21内に設けることもできる。
図6(a)に示すステップST7では、移動軌跡L1に基づいて手(操作体)41の動作予測を実行する。すなわち第1の区画31から第1の区画31に至る移動軌跡L1により、このままの移動軌跡が維持されれば、手41が、動作検出領域30のどのあたりに達するか(操作パネル18の画面18aのどの辺りに到達するか)を図2に示す動作予測部25にて予測する。また、動作検出領域30内に存在するシフト操作体16等の操作部材の位置にあわせて区画を更に細分化することで、シフト操作体16を操作しようとしていると予測した場合にはシフト操作体16を別途設けられる照光手段によって照光するなど、多様な対応が可能となる。
なお図8では、手41の移動軌跡L1が、動作検出領域30の第2の区画32から第1の区画31に移動しているが、例えば図9に示すように、手41の移動軌跡L2が動作検出領域30の第2の区画32を通らずに、直接、第1の区画31内に進入する状態であってもよい。
図10は、操作パネル18の画面18aを示している。図10に示すように画面18aの下方には、操作パネル18の高さ方向(Z1−Z2)に対して直交する横方向(X1−X2)に複数のアイコンA1〜A8が配列されている。各アイコンA1〜A8の上方部分がカーナビゲーション装置における地図表示や音楽再生表示がなされる部分である。
なお図10に示すアイコンA1〜A8の配列と違って、アイコンA1〜A8が例えば高さ方向(Z1−Z2)に配列されている構成、あるいは、アイコンの一部が横方向に配列され、残りのアイコンが高さ方向に配列されている構成等にもできる。
ただし高さ方向にアイコンが配列された構成では、図8や図9に示すように手41の移動軌跡L1,L2が第1の区画31に進入した際、あるいは図7のように移動軌跡L2が第2の区画32内に位置する段階において、手41がどの高さ位置にあるかを検出することが必要とされる。ここで操作体の高さ位置の算出方法を限定するものではないが、例えば、図5(c)(d)で手41の輪郭42が入る最小矩形領域43,44の大きさに基づいて手41の高さ位置を推測することができる。すなわち図3に示すようにCCDカメラ11で映し出された画像34は、平面であり、平面情報しか得られないため手41の高さ位置を知るには、最小矩形領域43,44の面積が大きくなるほど手41が上方に位置する(CCDカメラ11に近づく)として検出することができる。この際、手41の基準の大きさ(例えば操作パネル18の中心を操作した際の手41の大きさ)に対して面積変化により高さ位置を算出するために、基準の大きさを測定するための初期設定を行う。これにより手41の移動軌跡がどの程度の高さ位置にあるかを推測することができる。
さて今、手41(操作体)の移動軌跡に基づいて、図10に示すアイコンA1への入力操作が予測されたとする。するとその動作予測情報は操作補助機能部26に送られて、図6(a)に示すステップST8で操作者を確認したのち、図6(a)のステップST9に示すように操作パネル18に対する操作補助を実行する。例えば図11(a)に示すように、指で画面18aを触れる前に、入力操作が予測されるアイコンAを拡大表示する。これは動作予測により入力操作が予測されたアイコンA1への強調表示の一形態である。
また図11(b)は、手41(操作体)の移動軌跡に基づいて、図10に示すアイコンA2への入力操作が予測された場合、アイコンA2とともに、その付近(アイコンA2の両側)に位置するアイコンA1,A3を拡大表示し、残りのアイコンA4〜A8を画面から消去することもできる。このように動作予測先を中心とした隣接した複数のアイコンのみを拡大する構造により、より大きく拡大表示が可能となり、誤操作を抑制できる。特に走行中に運転者が入力操作しようと予測される複数のアイコンの部分だけを表示かつ拡大することで、車両が揺れても、誤って隣のアイコンを押してしまうなどの操作ミスを抑制できる。
また本実施形態では、図11以外に、図12に示すようにアイコンA1を点灯や点滅させたり、図13に示すようにアイコンA1上に、カーソル表示50やその他の表示を重ねてアイコンA1が選択されていることを示したり、あるいは図14に示すように、アイコンA1以外のアイコンA2〜A8をグレーアウト表示にして、アイコンA1だけが入力可能であることを強調表示することができる。
図6(a)に示すようにステップST8で操作者を確認しているが、例えば操作者が運転者であると識別されたとき、図15に示すように、走行中の安全性を高めるための操作補助の一形態として、操作パネル18の画面18a上のすべてのアイコンA1〜A8をグレーアウト表示することも可能である。図15に示す形態では、例えば車両速度センサ(図示せず)から車両の走行速度を求め、走行速度が所定以上であり、操作者が運転者であると認識された場合、図15に示すようにすべてのアイコンA1〜A8をグレーアウト表示するように制御することができる。
制御部21にて、操作者が運転者であるか、運転者以外の乗員であるか否かは、動作検出領域30と、その左右両側の領域35,36との境界(辺)30a,30b上の進入位置から移動軌跡L1を追従することで、容易にかつ適切に判別することができる。
すなわち図7に示すように、動作検出領域30と運転席側である左側の領域35との境界30aから手41が動作検出領域30内に進入したことを検出することで、手41は運転者のものである(図1に示す形態では左ハンドルのため)と識別できる。
図16に示すように手60の移動軌跡L4が動作検出領域30と助手席側である右側の領域36との境界30bから動作検出領域30内に延びている場合、手60は助手席の乗員のものであると識別できる。
あるいは図17に示すように、移動軌跡L5が動作検出領域30のうち、操作パネル18から最も離れた辺30dの位置から動作検出領域30内に進入している場合、操作者は後部座席の乗員であると識別することができる。
本実施形態では、操作体の移動軌跡を追従することで、例えば図18に示すように運転者が腕を助手席のほうに回しながら操作パネル18に対する操作を行おうとしても、図18に示すように手41(操作体)の移動軌跡L6を追従することで、操作者が運転者であると識別することができる。
本実施形態では、操作者が運転者か、運転者以外の乗員であるかによって、入力操作機能が異なるように制御してもよい。例えば、助手席の乗員が操作者である場合、図11から図14に示したアイコンA1に対する強調表示を実行し、運転者が操作者である場合、図15で示したすべてのアイコンA1〜A8をグレーアウト表示するように制御することができる。これにより走行中の安全性を高めることができる。なお後部座席の乗員が操作者であると識別された場合には、例えば運転者が操作者である場合と同様に、すべてのアイコンA1〜A8をグレーアウト表示することで安全性を高めることができる。このように操作パネル18の操作位置に対する強調表示を、操作者が助手席の乗員であると判別された場合にのみ実行するようにしてもよい。
図6(a)に示すステップST8で操作者が運転者であると識別された場合、操作者が助手席の乗員である場合に比べて入力操作を制限するとしたほうが、安全性を高めるうえで好適である。例えば上記したように車両が所定以上の速度で走行している場合には、すべてのアイコンをグレーアウト表示にして入力操作が無効となるように制御することが考えられる。
また、図11に示すようにアイコンA1を拡大表示する場合でも、運転者が操作者である場合、助手席の乗員が操作者である場合に比べてアイコンA1をより拡大表示することで快適な操作性と安全性を高めることができる。かかる構成も、操作者が運転者か、運転者以外の乗員であるかによって、入力操作機能が異なるように制御した例である。
図19に示すように、動作検出領域30の第1の区画31内に、運転者の手41の移動軌跡L7と、助手席の乗員の手60の移動軌跡L8の双方が検出された場合、助手席の乗員の動作予測を優先して操作補助を実行することが走行中の安全性を高めるうえで好適である。
操作パネル18に対する操作補助には、例えば、操作体の動作予測に基づいて、操作パネル18にタッチしなくても自動的に入力がオン状態になったりオフ状態になったりする形態も含まれる。
また図11〜図14に示したように入力操作が予測されたアイコンA1に対して強調表示した後、手41がさらに操作パネル18に近づいたら、指がアイコンA1上に触れるより前にアイコンA1の入力操作を確定することができる。
また本実施形態では、強調表示するものとしてアイコンを例に挙げたが、アイコン以外の表示体であってもよいし、予測される操作位置に対して強調表示等されるものであってもよい。
図20は、指の検出方法を示している。まず図5(b)での手41の輪郭42の座標を求め、図20に示すようにもっともY1方向に位置する点B1〜B5をリストアップする。Y1方向は操作パネル18方向を指しているから、もっともY1方向に位置する点B1〜B5は指の先端であると推測される。これらの点B1〜B5の中で最もX1側の点B1と最もX2側の点B5を求める。そして、点B1と点B5の中間の座標(ここでは点B3の位置)を指位置と推定する。本実施形態では操作体を指とし、指の移動軌跡を追従することで、動作予測を行うように制御することも可能である。指の移動軌跡を用いることで、より詳細な動作予測を行うことが可能となる。
また左手と右手との判別、手の表裏の判別等を行えるようにしてもよい。
また操作体が動作検出領域30内にて停止状態にあっても、停止状態を重心ベクトル等により随時取得することで、あるいは、停止状態での重心Gを所定時間保持することで、その後、操作体が移動を開始してもすぐさま操作体の移動軌跡を追従することができる。
本実施形態における動作予測装置28(図2参照)によれば、CCDカメラ(撮像素子)11により撮像された画像情報により動作検出領域30を特定し、その動作検出領域30内にて移動する操作体の移動軌跡を追従可能な制御部29を備えている。そして本実施形態では、操作体の移動軌跡に基づいて動作予測を可能としている。したがって動作予測装置28を車両内に組み込み、操作パネル18とともに入力装置20を構成した場合、操作パネル18に対して入力操作が行われる手前の位置で、操作パネル18に対する動作予測を行うことが可能であり、従来とは違った操作性や迅速な操作性、快適な操作性を得ることが可能である。また走行中の安全性を従来に比べて高めることができる。
また本実施形態では、操作体の動作予測を行う構成であり、特許文献1記載の発明のようにキー入力をトリガーとして入力操作制御を行うものでなく、動作の無駄を従来に比べて省くことができる。
本実施形態では、例えば、操作体の重心Gを算出し、重心Gの移動ベクトルを前記操作体の移動軌跡として追従しているが、これにより、操作体に対する移動軌跡の追従及び移動軌跡に基づく動作予測を容易にかつスムースに得ることができる。
また本実施形態では、図5に示すように、動作検出領域内には、手41だけでなく腕40の部分も映し出されるが、手41の部分だけを切り出して、手41の移動軌跡を見ることで、移動軌跡の算出を容易にでき、制御部に対する算出負担を低減でき、また、動作予測が行いやすくなる。
また本実施形態では、操作体の移動軌跡を、動作検出領域30内への進入位置から追従している。すなわち操作体が動作検出領域30を構成する複数の辺30a〜30dのいずれかの位置から動作検出領域内に進入したかを見ることで、操作者の特定が行いやすくなる。
また本実施形態では、動作検出領域30内は複数の区画31,32に分割されており、操作体の移動軌跡が、操作パネル18に近い第1の区画31内に進入したことに基づいて動作予測を実行している。このように本実施形態では、操作体の移動軌跡を追従しながら、操作体がある所定の区画内に進入したことに基づいて動作予測を実行することで、動作予測実行に対する制御部への負担を軽減でき、また動作予測の精度を上げることができる。
図2に示す動作予測装置28を車両内に組み込んで操作パネル18とともに入力装置20を構成する以外に適用することもできる。
A1〜A8 アイコン
G 重心
L1〜L8 移動軌跡
R 撮像範囲
11 CCDカメラ
18 操作パネル
20 入力装置
21,29 制御部
22 画像情報検出部
23 領域規制部
24 算出部
25 動作予測部
26 操作補助機能部
28 動作予測装置
30 動作検出領域
31,32 区画
34 画像
41,60 手
42 輪郭

Claims (10)

  1. 画像情報を取得するための撮像素子と、前記画像情報に基づいて操作体の動作予測を行う制御部と、を有しており、
    前記制御部では、前記画像情報により特定された動作検出領域内に進入した前記操作体の移動軌跡を追従し、前記移動軌跡に基づいて前記動作予測を行うことを特徴とする動作予測装置。
  2. 前記制御部では、前記操作体の重心を算出し、前記重心の移動ベクトルを前記操作体の移動軌跡として追従する請求項1記載の動作予測装置。
  3. 前記動作検出領域内にて撮像された前記操作体のうち、手の部分を推定して、前記手の移動軌跡を追従する請求項1または2に記載の動作予測装置。
  4. 前記手の推定は、前記操作体の輪郭を検出するステップ、前記輪郭から各箇所のサイズを求めて、決められた値以上の領域を有効領域とするステップ、前記有効領域内において前記輪郭が外接する領域を検出し、前記外接する領域の縦長さが閾値以下であるか否かを判定するステップを有して行われる請求項3記載の動作予測装置。
  5. 前記外接する領域の縦長さが閾値以下であるとき、前記有効領域の中心を手の重心と規定する請求項4記載の動作予測装置。
  6. 前記外接する領域の縦長さが閾値以上であるとき、前記外接する領域の縦長さを制限して手推定領域を規定した状態で再度、前記有効領域の判定を行う請求項4又は5に記載の動作予測装置。
  7. 前記制御部では、前記操作体の移動軌跡を、前記動作検出領域内への進入位置から追従する請求項1ないし6のいずれか1項に記載の動作予測装置。
  8. 前記動作検出領域内は複数の区画に分割されており、前記制御部では、前記操作体の移動軌跡が、所定の前記区画内に進入したことに基づいて前記動作予測を実行する請求項1ないし7のいずれか1項に記載の動作予測装置。
  9. 請求項1ないし8のいずれか1項に記載された動作予測装置と、前記操作体により入力操作される操作パネルと、を有し、
    前記動作予測装置及び前記操作パネルは車両内に設けられており、
    少なくとも前記操作パネルの前方が撮像されるように前記撮像素子が配置されており、
    前記制御部では、前記操作体の動作予測に基づいて、前記操作パネルに対する操作補助を行うことを特徴とする入力装置。
  10. 前記制御部では、前記操作体の前記動作検出領域内への進入位置に基づいて、前記操作パネルに対する操作者が、運転者か、前記運転者以外の乗員かを識別可能とされる請求項9記載の車両用の入力装置。
JP2012205495A 2012-09-19 2012-09-19 動作予測装置及びそれを用いた入力装置 Active JP5944287B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012205495A JP5944287B2 (ja) 2012-09-19 2012-09-19 動作予測装置及びそれを用いた入力装置
US13/950,913 US20140079285A1 (en) 2012-09-19 2013-07-25 Movement prediction device and input apparatus using the same
CN201310424909.5A CN103661165B (zh) 2012-09-19 2013-09-17 动作预测装置及使用其的输入装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012205495A JP5944287B2 (ja) 2012-09-19 2012-09-19 動作予測装置及びそれを用いた入力装置

Publications (2)

Publication Number Publication Date
JP2014058268A true JP2014058268A (ja) 2014-04-03
JP5944287B2 JP5944287B2 (ja) 2016-07-05

Family

ID=50274512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012205495A Active JP5944287B2 (ja) 2012-09-19 2012-09-19 動作予測装置及びそれを用いた入力装置

Country Status (3)

Country Link
US (1) US20140079285A1 (ja)
JP (1) JP5944287B2 (ja)
CN (1) CN103661165B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101654694B1 (ko) * 2015-03-31 2016-09-06 주식회사 퓨전소프트 손 제스처를 이용한 차량용 전자기기 제어 방법 및 이를 구현하는 모션 감지 장치
DE112019007569T5 (de) 2019-09-05 2022-04-28 Mitsubishi Electric Corporation Bediener-Beurteilungsvorrichtung und Bediener-Beurteilungsverfahren

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI471814B (zh) * 2012-07-18 2015-02-01 Pixart Imaging Inc 降低背景干擾的手勢判斷方法及其裝置
DE102013010932B4 (de) * 2013-06-29 2015-02-12 Audi Ag Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
JP6409118B2 (ja) * 2015-02-25 2018-10-17 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
DE102015205931A1 (de) * 2015-04-01 2016-10-06 Zf Friedrichshafen Ag Bedienvorrichtung und Verfahren zum Bedienen zumindest einer Funktion eines Fahrzeugs
CN105488794B (zh) * 2015-11-26 2018-08-24 中山大学 一种基于空间定位和聚类的动作预测方法及系统
CN105302619B (zh) * 2015-12-03 2019-06-14 腾讯科技(深圳)有限公司 一种信息处理方法及装置、电子设备
EP3415394B1 (en) * 2016-02-12 2023-03-01 LG Electronics Inc. User interface apparatus for vehicle, and vehicle
CN105809889A (zh) * 2016-05-04 2016-07-27 南通洁泰环境科技服务有限公司 一种安全报警装置
CN106004700A (zh) * 2016-06-29 2016-10-12 广西师范大学 一种稳定的全向摄影小车

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
JP2010045658A (ja) * 2008-08-14 2010-02-25 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
WO2010061448A1 (ja) * 2008-11-27 2010-06-03 パイオニア株式会社 操作入力装置、情報処理装置及び選択ボタン特定方法
JP2011175347A (ja) * 2010-02-23 2011-09-08 Nec System Technologies Ltd 情報処理装置および情報処理方法
US20120056849A1 (en) * 2010-09-07 2012-03-08 Shunichi Kasahara Information processing device, information processing method, and computer program

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102046A (ja) * 1995-08-01 1997-04-15 Matsushita Electric Ind Co Ltd 手形状認識方法および手形状認識装置
JPH11167455A (ja) * 1997-12-05 1999-06-22 Fujitsu Ltd 手形状認識装置及び単色物体形状認識装置
JP2000331170A (ja) * 1999-05-21 2000-11-30 Atr Media Integration & Communications Res Lab 手振り認識装置
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
JP2004067031A (ja) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd 操作者判別装置およびこれを用いた車載装置
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP2005242694A (ja) * 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
JP2008250774A (ja) * 2007-03-30 2008-10-16 Denso Corp 情報機器操作装置
DE102007034273A1 (de) * 2007-07-19 2009-01-22 Volkswagen Ag Verfahren zur Bestimmung der Position eines Fingers eines Nutzers in einem Kraftfahrzeug und Positionsbestimmungsvorrichtung
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP5648207B2 (ja) * 2009-09-04 2015-01-07 現代自動車株式会社 車両用操作装置
JP2011170834A (ja) * 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
JP5501992B2 (ja) * 2010-05-28 2014-05-28 パナソニック株式会社 情報端末、画面部品表示方法、プログラム、及び記録媒体
US8897490B2 (en) * 2011-03-23 2014-11-25 Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. Vision-based user interface and related method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
JP2010045658A (ja) * 2008-08-14 2010-02-25 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
WO2010061448A1 (ja) * 2008-11-27 2010-06-03 パイオニア株式会社 操作入力装置、情報処理装置及び選択ボタン特定方法
JP2011175347A (ja) * 2010-02-23 2011-09-08 Nec System Technologies Ltd 情報処理装置および情報処理方法
US20120056849A1 (en) * 2010-09-07 2012-03-08 Shunichi Kasahara Information processing device, information processing method, and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101654694B1 (ko) * 2015-03-31 2016-09-06 주식회사 퓨전소프트 손 제스처를 이용한 차량용 전자기기 제어 방법 및 이를 구현하는 모션 감지 장치
DE112019007569T5 (de) 2019-09-05 2022-04-28 Mitsubishi Electric Corporation Bediener-Beurteilungsvorrichtung und Bediener-Beurteilungsverfahren

Also Published As

Publication number Publication date
CN103661165A (zh) 2014-03-26
US20140079285A1 (en) 2014-03-20
CN103661165B (zh) 2016-09-07
JP5944287B2 (ja) 2016-07-05

Similar Documents

Publication Publication Date Title
JP5944287B2 (ja) 動作予測装置及びそれを用いた入力装置
JP2014059803A (ja) 入力装置
JP6014162B2 (ja) 入力装置
JP4604703B2 (ja) 駐車補助装置
JPWO2015125243A1 (ja) 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法
JP6515028B2 (ja) 車両用操作装置
WO2015001606A1 (ja) 撮像システム
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
KR101542973B1 (ko) 자동차의 디스플레이 제어장치 및 제어방법
JP2013193670A (ja) 表示制御装置
WO2018061413A1 (ja) ジェスチャ検出装置
US20200167116A1 (en) Vehicle display device, and vehicle display method
JP2020057139A (ja) 機器制御装置
JP2010108185A (ja) 表示制御システム、表示制御方法、及び表示制御プログラム
JP5912177B2 (ja) 操作入力装置、操作入力方法及び操作入力プログラム
JP6819539B2 (ja) ジェスチャ入力装置
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
JP2016157457A (ja) 操作入力装置、操作入力方法及び操作入力プログラム
US20200218347A1 (en) Control system, vehicle and method for controlling multiple facilities
TWI815046B (zh) 行車輔助方法及車載裝置
WO2021059479A1 (ja) 操作対象物を操作可能範囲内に表示する表示制御装置
CN115562476A (zh) 用于在显示屏幕上显示数据的电子装置和方法、相关的显示系统、交通工具和计算机程序
JP2017224162A (ja) ジェスチャ判定装置
US20230373496A1 (en) Vehicle control device and vehicle control method
JP2020123369A (ja) 操作入力装置、操作入力方法及び操作入力プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160525

R150 Certificate of patent or registration of utility model

Ref document number: 5944287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350