JP6401268B2 - 非接触操作検出装置 - Google Patents

非接触操作検出装置 Download PDF

Info

Publication number
JP6401268B2
JP6401268B2 JP2016531139A JP2016531139A JP6401268B2 JP 6401268 B2 JP6401268 B2 JP 6401268B2 JP 2016531139 A JP2016531139 A JP 2016531139A JP 2016531139 A JP2016531139 A JP 2016531139A JP 6401268 B2 JP6401268 B2 JP 6401268B2
Authority
JP
Japan
Prior art keywords
sensor
contact operation
mode
detection
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016531139A
Other languages
English (en)
Other versions
JPWO2016002270A1 (ja
Inventor
静恵 加藤
静恵 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of JPWO2016002270A1 publication Critical patent/JPWO2016002270A1/ja
Application granted granted Critical
Publication of JP6401268B2 publication Critical patent/JP6401268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1446Touch switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/145Instrument input by combination of touch screen and hardware input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、非接触操作検出装置に関する。
本技術分野の背景技術として、特開2013−195326号公報(特許文献1)がある。この公報には、「手を空間的に検出するための領域をそれぞれ有し、対応する領域内において手との距離が閾値距離以下となったとき、手が領域内に存在するとそれぞれ検出する第1発光部1A、第2発光部1A2及び受光部1Bと、領域A及び領域B内に手が存在すると検出されたとき、領域Cについての閾値距離を、手の既定のワイプ動作に対応した閾値距離に設定するセンサドライバ10と、を備える。」と記載されている。
特開2013−195326号公報
特許文献1によると、不自然な手の動きをユーザに強いることを防止することができるが、ユーザがより操作し易くするようにする点で、向上の余地が残っている。
本発明は、上述した事情に鑑みてなされたものであり、ユーザにとって利便性の高い非接触操作検出装置を提供することを目的とする。
上記目的を達成するために、車両に搭載される非接触操作検出装置において、検出範囲における検出対象の位置によって出力する検出値が変化する複数のセンサと、前記センサの検出値の態様に基づいて非接触操作を検出し、各々の前記センサの検出値がピークとなったときの経過時間を取得する制御部と、を備え、前記制御部は、前記非接触操作を検出する動作モードとして、第1モードと第2モードのうちいずれかの動作モードを実行し、前記第1モードでは、第1のルールに基づいて非接触操作の種類を特定して、非接触操作が有効な操作か否かを判別し、前記第2モードでは、第2のルールに基づいて非接触操作の種類を特定して、非接触操作が有効な操作か否かを判別し、前記第1モード及び前記第2モードで複数の前記センサのうち検出値がピークとなった時間を取得できない前記センサがある場合は非接触操作の種類の特定を行わず、前記第1モードと前記第2モードでは、前記センサの前記検出範囲において前記非接触操作を検出する検出範囲が異なり、実行する動作モードの検出範囲で前記非接触操作を検出することを特徴とする。
本発明によれば、非接触操作に関し、ユーザの利便性が向上する。
図1は、本実施形態に係る車載装置の正面図。 図2は、車載装置の機能的構成を示すブロック図。 図3(A)は4つのセンサ部の配置状態を示す図、図3(B)は赤外線センサユニットの検出範囲を示す図。 図4は、所定方向操作を示す図。 図5は、車載装置が表示する画面の一例と、画面の遷移を示す図。 図6は、車載装置が表示する画面の一例を示す図。 図7は、車載装置が表示する画面の一例を示す図。 図8は、車載装置の動作を示すフローチャート。 図9は、車載装置の動作を示すフローチャート。 図10は、4つのセンサ部の検出値の波形の一例を示す図。 図11は、ピーク順番のパターンを示す図。 図12は、車載装置が記憶する第1テーブルを示す図。 図13は、車載装置が記憶する第2テーブル、第3テーブルを示す図。 図14は、下方向操作の認識範囲の説明に利用する図。 図15は、右斜め下方向操作の認識範囲の説明に利用する図。 図16は、第1モードと、第3モードとにおける所定の操作の認識範囲の差異の説明に利用する図。
図1は、本実施形態に係る車載装置1(非接触操作検出装置)を正面から見た図である。
図1に示すように、車載装置1は、制御基板や、インターフェイスボード、電源部等を収納する筐体10を備える。筐体10の正面には、タッチパネル11(表示部)が設けられる。筐体10の正面において、タッチパネル11の下方には、電源スイッチ等の複数の操作スイッチ12が設けられた操作パネル13が設けられる。操作パネル13の左右方向の中央部には、赤外線センサユニット14が設けられる。赤外線センサユニット14については後述する。
車載装置1は、車両のダッシュボードに設けられる。後述するように、ユーザは、車載装置1の前方で、非接触操作を行うことにより、車載装置1に対する入力を行える。非接触操作とは、車載装置1に対する接触を伴う操作(タッチパネル11に対するタッチ操作や、操作スイッチ12に対する押下操作等)ではなく、車載装置1の前方の所定の領域でユーザの手が所定の態様で動かされることによって行われる操作のことをいう。非接触操作を行う場合、車載装置1に向かって視線を移動させる必要がないため、ユーザは、運転中も、非接触操作を行って、車載装置1に対して各種入力を実行できる。
図2は、車載装置1の機能的構成を示すブロック図である。
図2に示すように、車載装置1は、制御部20と、タッチパネル11と、操作部21と、記憶部22と、GPSユニット23と、相対方位検出ユニット24と、ビーコン受信ユニット25と、FM多重受信ユニット26と、近距離無線通信部27と、メール管理部28と、センサ制御部29と、赤外線センサユニット14と、を備える。
制御部20は、CPUや、ROM、RAM、その他の周辺回路等を備え、車載装置1の各部を制御する。
タッチパネル11は、表示パネル11aと、タッチセンサ11bとを備える。表示パネル11aは、液晶表示パネル等により構成され、制御部20の制御で、各種画像を表示する。タッチセンサ11bは、表示パネル11aに重ねて配置され、ユーザのタッチ操作を検出し、制御部20に出力する。
操作部21は、操作スイッチ12を備え、操作スイッチ12に対する操作を検出し、制御部20に出力する。
記憶部22は、不揮発性メモリーを備え、各種データを記憶する。記憶部22は、地図データ22aと、アプリケーションAPとを記憶する。アプリケーションAPについては後述する。地図データ22aは、地図に関する情報や、地図上に存在する施設に関する情報、地図上の道路を示すリンクの情報、リンクの接続部を示すノードの情報等の、表示パネル11aに地図を表示するために必要な情報や、後述する経路案内を行うために必要な情報等を含むデータである。
GPSユニット23は、図示せぬGPSアンテナを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両の現在位置と進行方向とを演算により取得する。GPSユニット23は、取得結果を制御部20に出力する。
相対方位検出ユニット24は、ジャイロセンサ71と、加速度センサ72とを備える。ジャイロセンサ71は、例えば振動ジャイロにより構成され、車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサ72は、車両に作用する加速度(例えば、進行方向に対する車両の傾き)を検出する。相対方位検出ユニット24は、検出結果を制御部2に出力する。
制御部20は、GPSユニット23と相対方位検出ユニット24とからの入力、及び、地図データ22aに基づいて車両の現在位置を推定し、推定した現在位置を、表示パネル11aに表示した地図上に表示する機能を有する。また、制御部20は、地図に車両の現在位置を表示しつつ、目的地までの経路を表示して、経路を案内する機能を有する。
ビーコン受信ユニット25は、車両が走行する道路に設けられた電波ビーコンや光ビーコン(以下、これらを単に「ビーコン」と言う)が発する道路交通情報に係る電波を受信し、受信した電波に基づいて道路交通情報を生成し、生成した道路交通情報を制御部20に出力する。道路交通情報は、VICS(登録商標)(Vehicle Information and Communication System:道路交通情報通信システム)情報であり、渋滞に関する情報や、道路の交通規制に関する情報等を含む。
FM多重受信ユニット26は、FM多重放送波を受信して、道路交通情報を抽出し、制御部20に出力する。より詳細には、FM多重受信ユニット26は、FM多重専用チューナと、多重エンコーダと、を備えている。FM多重専用チューナは、FM多重放送を受信すると、FM多重信号を多重エンコーダに出力する。多重エンコーダは、FM多重専用チューナから入力されたFM多重信号を復号して道路交通情報を取得し、制御部20に出力する。
近距離無線通信部27は、ブルートゥース(登録商標)等の近距離無線通信の通信規格に従って、車両に搭乗するユーザが所有する携帯端末KTと無線通信リンクを確立し、携帯端末KTと無線通信する。
携帯端末KTは、携帯電話や、タブレット端末等のモバイル端末であり、電話回線や、無線LANを介してインターネットにアクセスする機能を有する。携帯端末KTは、SMSに係るメールや、Webメール等のメールを所定のサーバから受信する機能を有する。なお、本実施形態では、携帯端末KTがメールを受信し、メールのデータを車載装置1に送信するが、例えば、携帯端末KTが、インストールされたチャットアプリや、メッセンジャーアプリ、所定のサービス提供者が提供するアプリ等の所定のアプリケーションの機能により、Webメッセージや、プッシュ通知等の通知を受信し、受信した通知に対応するデータを車載装置1に送信する構成であってもよい。また、携帯端末KTは、予めインストールされたソフトウェアの機能により、後述するメール管理部28からの問い合わせに応答する機能、及び、メール管理部28からの要求に応じて新たに受信したメールのデータを送信する機能を有する。
メール管理部28は、近距離無線通信部27を制御して、携帯端末KTと通信し、携帯端末KTが新たにメールを受信したか否かを問い合わせる。問い合わせに対して、新たに受信したメールがある旨の応答があった場合、メール管理部28は、携帯端末KTに新たなメールのデータの送信を要求し、当該データを受信し、所定の記憶領域に記憶する。
センサ制御部29は、制御部20の制御に従って、赤外線センサユニット14を制御する。赤外線センサユニット14は、赤外線を用いて、ユーザによる非接触操作を検出するセンサユニットであり、第1センサ部141(第1のセンサ)と、第2センサ部142(第2のセンサ)と、第3センサ部143(第3のセンサ)と、第4センサ部144(第4のセンサ)と、を備える。第1センサ部141は第1発光部H1と第1受光部J1とを備え、第2センサ部142は、第2発光部H2と第2受光部J2とを備え、第3センサ部143は第3発光部H3と第3受光部J3とを備え、第4センサ部144は第4発光部H4と第4受光部J4とを備える。以下、赤外線センサユニット14の詳細な構成、及び、ユーザが行う非接触操作の種類について説明する。
なお、本実施形態に係る赤外線センサユニット14は、4つのセンサ部を備え、各センサ部が、それぞれ、赤外線を発光する発光部と、反射光を受光する受光部と、を備える構成である。しかしながら、赤外線センサユニット14の構成は、これに限らず、例えば、発光部と受光部とを1つずつ備え、受光部の受光面を4つに分割した形態であってもよい。すなわち、赤外線センサユニット14の構成は以下で説明する非接触操作を認識可能な構成であればよく、センサ部の数や、センサ部における発光部と受光部との態様、センサ部と発光部及び受光部との関係は、本実施形に係る構成に限定されない。
図3(A)は、赤外線センサユニット14の各センサ部を正面から見たときの配置状態を模式的に示す図である。図3(B)は、車載装置1の正面図を点線で示すと共に、車載装置1の前方に形成される赤外線センサユニット14によるユーザの手の検出範囲AAを、説明に適した態様で、模式的に示す図である。
以下の説明では、図3(B)において矢印で示すように、車載装置1を正面視したときに上へ向かう方向を上方向とし、下へ向かう方向を下方向とし、左へ向かう方向を左方向とし、右へ向かう方向を右方向とする。また、上下方向と直行する奥行き方向において、正面へ向かう方向を前方向とし、前方向と逆の方向へ向かう方向を後方向とする。
図3(A)に示すように、赤外線センサユニット14において、第1センサ部141の右方に第2センサ部142が設けられ、この第2センサ部142の下方に第3センサ部143が設けられ、この第3センサ部143の左方に第4センサ部144が設けられ、この第4センサ部144の上方に第1センサ部141が設けられる。
上述したように、第1センサ部141は、第1発光部H1と第1受光部J1とを備える。第1センサ部141の第1発光部H1は、センサ制御部29の制御に従って、所定の周期で赤外線を発光する。第1受光部J1は、第1発光部H1により発光された赤外線の反射光を受光し、受光強度を示す信号をセンサ制御部29に出力する。センサ制御部29は、入力された受光強度を示す信号を、A/D変換して、受光強度を所定諧調の諧調値として示すデータ(以下、「第1受光強度データ」という。)を生成し、制御部20に出力する。この結果、センサ制御部29から制御部20へ、所定の周期で、第1受光強度データが出力される。
図3(B)において、第1検出範囲A1は、第1センサ部141によるユーザの手(検出対象)の検出範囲を模式的に示している。すなわち、第1検出範囲A1内にユーザの手が位置している場合に、第1受光部J1は、第1発光部H1が発光した赤外線のユーザの手による反射光を受信可能である。第1検出範囲A1において、ユーザの手が第1センサ部141に近接しているほど、第1受光部J1が受信したユーザの手の反射光に基づいて生成される第1受光強度データが示す受光強度の値は大きくなる。
なお、図3(B)において、第1検出範囲A1は、説明の便宜を考慮して、第1センサ部141によるユーザの手の検出範囲の目安を表すものであり、正確な検出範囲を示すものではない。実際には、第1検出範囲A1は、他の第3検出範囲A3〜第4検出範囲A4と重なる領域を有している。また、第1検出範囲A1は、第1センサ部141によるユーザの手の検出範囲を、所定の位置で車載装置1の正面10aに沿って切り取った様子を示しているが、第1検出範囲A1は、第1センサ部141の特性に応じて前後方向(奥行き方向)に広がりを持つ。このような図3(B)における第1検出範囲A1の特徴は、第2検出範囲A2〜第4検出範囲A4も同様に有する。
図3(B)において、第2検出範囲A2は、第2センサ部142によるユーザの手の検出範囲を模式的に示す。すなわち、第2検出範囲A2内にユーザの手が位置している場合、第2受光部J2は、第2発光部H2が発光した赤外線のユーザの手による反射光を受信する。第2センサ部142の第2発光部H2は、センサ制御部29の制御に従って、所定の周期で赤外線を発光する。第2受光部J2は、第2発光部H2が発光した赤外線の反射光を受光し、受光した反射光の受光強度を示す信号をセンサ制御部29に出力する。センサ制御部29は、入力された受光強度を示す信号を、A/D変換して、受光強度を所定諧調の諧調値として示すデータ(以下、「第2受光強度データ」という。)を生成し、制御部20に出力する。この結果、センサ制御部29から制御部20へ、所定の周期で、第2受光強度データが出力される。
図3(B)において、第3検出範囲A3は、第3センサ部143によるユーザの手の検出範囲を模式的に示す。すなわち、第3検出範囲A3内にユーザの手が位置している場合、第3受光部J3は、第3発光部H3が発光した赤外線のユーザの手による反射光を受信する。第3センサ部143の第3発光部H3は、センサ制御部29の制御に従って、所定の周期で赤外線を発光する。第3受光部J3は、第3発光部H3が発光した赤外線の反射光を受光し、受光した反射光の受光強度を示す信号をセンサ制御部29に出力する。センサ制御部29は、入力された受光強度を示す信号を、A/D変換して、受光強度を所定諧調の諧調値として示すデータ(以下、「第3受光強度データ」という。)を生成し、制御部20に出力する。この結果、センサ制御部29から制御部20へ、所定の周期で、第3受光強度データが出力される。
図3(B)において、第4検出範囲A4は、第4センサ部144によるユーザの手の検出範囲を模式的に示す。すなわち、第4検出範囲A4内にユーザの手が位置している場合、第4受光部J4は、第4発光部H4が発光した赤外線のユーザの手による反射光を受信する。第4センサ部144の第4発光部H4は、センサ制御部29の制御に従って、所定の周期で赤外線を発光する。第4受光部J4は、第4発光部H4が発光した赤外線の反射光を受光し、受光した反射光の受光強度を示す信号をセンサ制御部29に出力する。センサ制御部29は、入力された受光強度を示す信号を、A/D変換して、受光強度を所定諧調の諧調値として示すデータ(以下、「第4受光強度データ」という。)を生成し、制御部20に出力する。この結果、センサ制御部29から制御部20へ、所定の周期で、第4受光強度データが出力される。
以下、第1受光強度データ〜第4受光強度データを区別せずに表現する場合、「受光強度データ」と表現する。
図3(B)に示すように、検出範囲AAは、第1検出範囲A1〜第4検出範囲A4より構成される検出範囲である。
制御部20は、後述する方法により、入力された第1受光強度データ〜第4受光強度データに基づいて、ユーザにより行われた非接触操作を検出する。そして、制御部20は、後述する方法により、非接触操作を解析し、ユーザにより行われた非接触操作を認識し、非接触操作が有効か否かを判別する。「非接触操作を認識する」とは、具体的には、ユーザにより行われた非接触操作の種類を特定することをいう。本実施形態では、非接触操作の種類として、下方向操作、上方向操作、右方向操作、左方向操作、右下方向操作、右上方向操作、左上方向操作、及び、左下方向操作の8種類がある。以下、これら8種類の非接触操作を区別せずに表現する場合は、「所定方向操作」と表現する。
図4(A)〜図4(H)は、それぞれ、下方向操作、上方向操作、右方向操作、左方向操作、右斜め下方向操作、右斜め上方向操作、左斜め上方向操作、及び、左斜め下方向操作を示す図である。
下方向操作とは、ユーザの手が下方向へ向かって検出範囲AAを通過するように移動する操作のことである。図4(A)は、下方向操作を説明するため、検出範囲AAとの関係で、下方向操作のときのユーザの手の動きの一例を矢印によって示している。図4(A)に示すように、下方向操作では、検出範囲AAの上側からユーザの手が検出範囲AAに進入し、検出範囲AA内でユーザの手が下方向へ向かって移動した後、検出範囲AAの下側からユーザの手が検出範囲AAを退出する。
上方向操作とは、図4(B)に示すように、ユーザの手が上方向へ向かって検出範囲AAを通過するように移動する操作のことである。右方向操作とは、図4(C)に示すように、ユーザの手が右方向へ向かって検出範囲AAを通過するように移動する操作のことである。左方向操作とは、図4(D)に示すように、ユーザの手が左方向へ向かって検出範囲AAを通過するように移動する操作のことである。
右斜め下方向操作とは、図4(E)に示すように、ユーザの手が右斜め下方向へ向かって検出範囲AAを通過するように移動する操作のことである。右斜め上方向操作とは、図4(F)に示すように、ユーザの手が右斜め上方向へ向かって検出範囲AAを通過するように移動する操作のことである。左斜め上方向操作とは、図4(G)に示すように、ユーザの手が左斜め上方向へ向かって検出範囲AAを通過するように移動する操作のことである。左斜め下方向操作とは、図4(H)に示すように、ユーザの手が左斜め下方向へ向かって検出範囲AAを通過するように移動する操作のことである。
なお、所定方向操作は、それぞれ、ユーザの手が、検出範囲AA内で直線的に移動し、かつ、検出範囲AAの中心O(図3(B)参照)付近を通過することが前提となる。非接触操作による入力を行う場合、上記のような態様で手を動かすべきことが、ユーザに事前に通知される。後に説明する方法により、検出された非接触操作が、検出範囲AA内で直線的に移動し、かつ、検出範囲AAの中心O(図3(B)参照)付近を通過する操作ではない場合、制御部20は、ユーザにより行われた非接触操作について、所定方向操作の種類の特定を行わず、従って、非接触操作に基づく処理が実行されない。これにより、ユーザの意図に反して非接触操作が検出された場合であっても、非接触操作に基づく処理が行われることが抑制される。ユーザの意図に反して非接触操作が検出される場合とは、ユーザが、車載装置1の操作スイッチ12を操作しようとしたり、ダッシュボードに載置された物を取ろうとしたりする等、非接触操作を行うことを目的としない場合に、検出範囲AA内に手が侵入し、赤外線センサユニット14により操作が検出されることをいう。
次に、ユーザが非接触操作を行った場合の車載装置1の動作について具体例を挙げて説明する。
車載装置1は、タッチパネル11に表示内容の異なる複数の種類の画面を表示することができる。そして、本実施形態では、画面の種類ごとに、非接触操作による入力を受け付けるか否かが設定されており、さらに、非接触操作による入力を受け付けると設定された画面については、第1モード〜第3モードのうち、どの動作モードで動作するかが設定される。
第1モード〜第3モードは、それぞれ、8種類の所定方向操作のうち、どの種類の所定方向操作を有効とするかが異なっている。具体的には、第1モードは、下方向操作、上方向操作、右方向操作、及び、左方向操作を有効とする。第1のモードにおいて、上下左右の4つの方向に向かう手の移動に対応する非接触操作を有効とする規定が「第1のルール」に相当する。第2モードは、8種類の全ての所定方向操作を有効とする。つまり、第2モードは、任意の方向に向かってユーザの手が移動する非接触操作を有効とする。第2のモードにおいて、任意の方向に向かう手の移動に対応する非接触操作を有効とする規定が「第2のルール」に相当する。第3モードは、右方向操作、及び、左方向操作を有効とする。第3のモードにおいて、左右の2つの方向に向かう手の移動に対応する非接触操作を有効とする規定が「第3のルール」に相当する。
なお、第1モード〜第3モードでは、後述するように、所定方向操作として認識されるユーザの手の動きの範囲が、それぞれ、異なっている。
図5は、ユーザによる非接触操作が行われたときの車載装置1の動作の説明に利用する図である。
図5において、画面G1は、目的地までの経路を案内する画面である。画面G1では、地図が表示されると共に、地図上に車両の現在位置、及び、目的地までの経路が表示される。
画面G1は動作モードとして第1モードが設定される。つまり、有効な非接触操作は、下方向操作、上方向操作、右方向操作、及び、左方向操作である。従って、画面G1が表示されている場合、ユーザは、下方向操作、上方向操作、右方向操作、及び、左方向操作の4つの非接触操作を行って、操作に対応する処理を制御部20に実行させることができる。
制御部20は、画面G1の表示中に、下方向操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G1から画面G2に遷移する。画面G2は、道路交通情報を表示する画面である。画面G2の表示に際し、制御部20は、ビーコン受信ユニット25と、及び、FM多重受信ユニット26が受信した最新の道路交通情報を記憶しており、画面G2上に、当該最新の道路交通情報を所定の態様で表示する。
画面G2は動作モードとして第2モードが設定される。従って、画面G2が表示されている間、ユーザは、任意の方向に向かって手を移動させる操作を行って、操作に対応する処理を制御部20に実行させることができる。制御部20は、画面G2の表示中に、任意の方向に向かってユーザの手が移動する操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G2から画面G1に遷移する。
このような構成のため、ユーザは、画面G1で提供される経路に基づいて目的地へ向かって運転している間に、最新の道路交通情報を取得したいと考えた場合、運転を継続しつつ、下方向操作を実行すればよい。また、ユーザは、画面G2で提供される道路交通情報を取得し、再び、画面G1をタッチパネル11に表示させたいと考えた場合、運転を継続しつつ、任意の方向に向かって手を移動させる非接触操作を行えばよい。このように、ユーザは、非接触操作を行って、簡易に、画面G1と画面G2との間で、表示する画面を遷移させることができる。特に、画面G2から画面G1への遷移は、任意の方向に向かって手を移動させればよいため、非常に簡易である。
また、制御部20は、画面G1の表示中に、上方向操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G1から画面G3に遷移する。画面G3は、目的地に向かう経路において車両が経由する交差点のうち、車両の現在位置に最も近い交差点の立体図を画面の略左半分に表示すると共に、目的地までの経路を走行した場合に時間的に最も早く経由する3つの交差点に関する情報を略右半分に表示する画面である。交差点に関する情報は、交差点名、到達予想時刻、車両の現在位置との離間距離、及び、交差点の形状である。制御部20は、地図データ22aから必要な情報を取得し、取得した情報に基づいて、画面G3を表示する。
画面G3は動作モードとして第2モードが設定される。従って、画面G3が表示されている間、ユーザは、任意の方向に向かって手を移動させる操作を行って、操作に対応する処理を制御部20に実行させることができる。制御部20は、画面G3の表示中に、任意の方向に向かってユーザの手が移動する操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G3から画面G1に遷移する。このような構成のため、ユーザは、非接触操作を行って、簡易に、画面G1と画面G3との間で、表示する画面を遷移させることができる。
また、制御部20は、画面G1の表示中に、右方向操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G1から画面G4に遷移する。画面G4は、携帯端末KTが受信したメールに関する情報を表示する画面である。制御部20は、メール管理部28を制御して、携帯端末KTが新たに受信したメールがある場合は、当該メールを取得し、過去に受信したメールに関する情報と共に、新たなメールに関する情報(件名や、送信元、本文等。)を画面G4に表示する。
画面G4は動作モードとして第2モードが設定される。従って、画面G4が表示されている間、ユーザは、任意の方向に向かって手を移動させる操作を行って、操作に対応する処理を制御部20に実行させることができる。制御部20は、画面G4の表示中に、任意の方向に向かってユーザの手が移動する操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G4から画面G1に遷移する。このような構成のため、ユーザは、非接触操作を行って、簡易に、画面G1と画面G4との間で、表示する画面を遷移させることができる。
また、制御部20は、画面G1の表示中に、左方向操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G1から画面G5に遷移する。画面G5は、事前にインストールされたアプリケーションAPが提供するコンテンツを表示する画面である。制御部20は、アプリケーションAPの機能により、コンテンツを画面G5に表示する。
画面G5は動作モードとして第2モードが設定される。従って、画面G5が表示されている間、ユーザは、任意の方向に向かって手を移動させる操作を行って、操作に対応する処理を制御部20に実行させることができる。制御部20は、画面G5の表示中に、任意の方向に向かってユーザの手が移動する操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G5から画面G1に遷移する。このような構成のため、ユーザは、非接触操作を行って、簡易に、画面G1と画面G5との間で、表示する画面を遷移させることができる。
なお、画面の種類ごとの動作モード、及び、ユーザが所定の非接触操作を行ったときに車載装置1が実行する処理は、所定の方法で事前にユーザに通知される。ここで、制御部20が、有効な非接触操作と共に、非接触操作を行った場合に行われる処理を画面に表示する構成であってもよい。図6は、画面G1に、上記表示を行う場合の一例を示す図である。図6では、説明の便宜のため、図5の画面G1で表示した地図を表示していない。図6では、下方向を指し示す矢印により下方向操作が有効であることが明示されると共に、矢印の近傍に表示された文字列により下方向操作を行った場合、画面G2に遷移することが示される。上、右、及び、左方向操作についても同様である。
図7は、ユーザが非接触操作を行ったときの車載装置1の動作の他の例を説明する図である。
図7(A)は、画面G6を示す図である。画面G6は、画面G1による経路案内中に、車両の現在位置と、経由する交差点との離間距離が、予め定められた所定の距離を下回った場合、画面G1から自動で切り替わって表示される。つまり、画面G6は、所定の条件が成立したことをトリガとして、自動で切り替わり表示される画面である。画面G6では、略左半分に、近接した交差点の立体図が表示され、略右半分に、車両の現在位置及び目的地までの経路が明示された地図が表示される。
画面G6は動作モードとして第2モードが設定される。従って、画面G6が表示されている間、ユーザは、任意の方向に向かって手を移動させる操作を行って、操作に対応する処理を制御部20に実行させることができる。制御部20は、画面G6の表示中に、任意の方向に向かってユーザの手が移動する操作が行われたことを検出した場合、タッチパネル11に表示する画面を、画面G6から画面G1に遷移する。
画面G6のように所定の条件が成立したことをトリガとして自動で切り替わる画面や、所定の条件が成立したことをトリガとしてポップアップにより表示されるポップアップ画面の動作モードを第2モードに設定することにより、ユーザは、自動で表示された画面を簡易、かつ、迅速に消去することができ、ユーザの利便性をより効果的に向上できる。
図7(B)は、画面G7を示す図である。画面G7は、所定の画面(以下の例では、画面G1とする。)を表示中に、ビーコン受信ユニット25、又は、FM多重受信ユニット26により最新の道路交通情報を受信した場合に、ポップアップにより自動で表示される。図7(B)に示すように、画面G7では、「最新の交通情報を受信しました。表示しますか?」という、受信した道路交通情報を表示するか否かを問い合わせる文言が表示される。さらに、画面G7では、道路交通情報を表示することを意味する「はい」という文言と共に、当該文言と対応付けて左方向を指し示す矢印が表示される。当該矢印により、左方向操作を行うことにより、「はい」が選択されて、道路交通情報が表示されることが明示される。また、画面G7では、道路交通情報を表示しないことを意味する「いいえ」という文言と共に、当該文言と対応付けて右方向を指し示す矢印が表示される。当該矢印により、右方向操作を行うことにより、「いいえ」が選択されて、道路交通情報の表示がキャンセルされることが明示される。
画面G7は動作モードとして第3モードが設定される。従って、画面G7が表示されている間、ユーザは、左方向操作、又は、右方向操作を行って、操作に対応する処理を制御部20に実行させることができる。制御部20は、画面G7の表示中に、左方向操作、又は、右方向操作が行われたか否かを監視する。左方向操作が行われた場合、すなわち、ユーザにより道路交通情報を表示することが選択された場合、制御部20は、表示する画面を、図5の画面G2に遷移し、受信した道路交通情報を表示する。一方、右方向操作が行われた場合、すなわち、ユーザにより道路交通情報を表示しないことが選択された場合、制御部20は、画面G7を消去し、画面G7の表示前に表示していた画面G1を表示する。
画面G7のように所定の条件が成立したことをトリガとしてポップアップにより表示されるポップアップ画面や、所定の条件が成立したことをトリガとして自動で切り替わる画面であって、かつ、ユーザに二択の選択を求める画面について、動作モードを第3モードに設定することにより、ユーザは、自動で表示された画面で求められた選択に、簡易、かつ、迅速に対応することができ、ユーザの利便性をより効果的に向上できる。なお、ユーザに四択の選択を求める画面をポップアップ等の手段により自動で表示する場合は、当該画面の動作モードを第1モードに設定すればよい。
次に、非接触操作の検出に関する車載装置1の動作を、フローチャートを用いて詳細に説明する。
図8は、車載装置1の動作を示すフローチャートである。
図8では、新たな画面の表示があったことを動作の開始の条件としている。新たに表示される画面には、電源投入後に表示する画面や、画面を遷移させて新たに表示する画面、画面を自動で切り替えて新たに表示する画面、ボップアップにより新たに表示する画面が含まれる。
図8に示すように、新たな画面の表示があった場合、車載装置1の制御部20は、新たに表示した画面が、認識該当画面であるか否かを判別する(ステップSA1)。認識該当画面とは、非接触操作による入力を受け付けることが設定された画面である。上述したように、認識該当画面には、動作モードとして、第1モード〜第3モードのいずれかが設定される。
認識該当画面ではない場合(ステップSA1:NO)、制御部20は、処理を終了する。
認識該当画面である場合(ステップSA1:YES)、制御部20は、非接触操作の認識を開始する(ステップSA2)。非接触操作の認識を開始するとは、非接触操作が行われた場合に、操作を検出して操作を解析できる状態を確立することを意味する。ステップSA2で、例えば、制御部20は、センサ制御部29を制御して、第1センサ部141〜第4センサ部144の駆動を開始する。
次いで、制御部20は、表示中の画面に設定された動作モードに応じて、記憶部22に記憶された第1テーブルTB1、第2テーブルTB2、及び、第3テーブルTB3のうち、いずれのテーブルを使用して、非接触操作の認識(非接触操作の種類の特定)を行うかを決定する(ステップSA3)。制御部20は、画面に設定された動作モードが第1モードの場合は第1テーブルTB1を、第2モードの場合は第2テーブルTB2を、第3モードの場合は第3テーブルTB3を使用するテーブルとして決定する。第1テーブルTB1〜第3テーブルTB3については、後述する。後に明らかとなるとおり、ステップSA3では、制御部20は、使用するテーブルを決定することにより、所定方向操作の種類を特定するときのユーザの動きの範囲を、動作モードに応じて変更している。
次いで、制御部20は、センサ信号認識処理を実行する(ステップSA4)。
図9は、ステップSA4のセンサ信号認識処理を実行するときの制御部20の動作の詳細を示すフローチャートである。
図9に示すように、センサ信号認識処理において、制御部20は、所定の周期で入力される第1受光強度データ〜第4受光強度データを監視し、検出範囲AAへのユーザの手の進入があったか否かを判別する(ステップSB1)。制御部20は、第1受光強度データ〜第4受光強度データに基づいて、第1センサ部141〜第4センサ部144のいずれかのセンサ部の検出値(受信強度)に変化があったか否かを監視し、変化があった場合、検出範囲AAへのユーザの手の進入があったと判別する。
検出範囲AAへのユーザの手の進入があった場合(ステップSB1:YES)、制御部20は、所定の周期で入力される第1受光強度データ〜第4受光強度データに基づいて、所定の周期ごとの第1センサ部141〜第4センサ部144のそれぞれのセンサ部の検出値(受信強度)を、ユーザの手の進入を検出したときからの経過時間を示す情報と共に、所定の記憶領域に記憶する(ステップSB2)。
制御部20は、ステップSB2の処理を、ユーザの手が検出範囲AAから退出するまでの間、実行する。すなわち、制御部20は、第1受光強度データ〜第4受光強度データに基づいて、第1センサ部141〜第4センサ部144の全てのセンサ部の検出値(受信強度)が、手の退出を検出するために設定された閾値を下回ったか否かを監視し、下回った場合、検出範囲AAからユーザの手が退出したと判別し、ステップSB2の処理を終了する。
図10は、横軸に経過時間をとり、縦軸に受信強度をとった表において、第1センサ部141〜第4センサ部144のそれぞれの検出値の時間の経過に伴う変化の一例をグラフによって示す図である。制御部20は、ステップSB2において第1センサ部141〜第4センサ部144のそれぞれのセンサ部の検出値(受信強度)を、経過時間を示す情報と共に記憶する。このため、記憶された情報に基づいて、図10のグラフを描画することが可能である。
図10の例では、経過時間TP1で、第1センサ部141の検出値がピーク(最大値)となる。また、経過時間TP2(経過時間TP1<経過時間TP2<経過時間TP3)で、第2センサ部142の検出値がピークとなる。また、経過時間TP3(経過時間TP2<経過時間TP3<経過時間TP4)で、第4センサ部144の検出値がピークとなる。また、経過時間TP4で、第3センサ部143の検出値がピークとなる。
次いで、制御部20は、所定の記憶領域に記憶した情報に基づいて、各センサ部の検出値がピークとなった時の経過時間を取得する(ステップSB3)。図10の例の場合、制御部20は、第1センサ部141の検出値がピークとなったときの経過時間TP1、第2センサ部142の検出値がピークとなったときの経過時間TP2、第4センサ部144の検出値がピークとなったときの経過時間TP3、及び、第3センサ部143の検出値がピークとなったときの経過時間TP4を取得する。
次いで、制御部20は、ステップSB2で所定の記憶領域に記憶した情報に基づいて、非接触操作の種類の特定を行うか否かを判別する(ステップSB4)。制御部20は、以下のような場合は、ユーザによる意図的な非接触操作が行われていないものとして、非接触操作の種類の特定を行わない。
ステップSB4において、制御部20は、第1センサ部141〜第4センサ部144について、検出値がピークとなった経過時間を取得できないものが1つでもある場合は、種類の特定を行わないと判別する。このような場合は、ユーザの手が検出範囲AA内で直線的に移動し、かつ、検出範囲AAの中心O(図3(B)参照)付近を通過する動きをしておらず、ユーザが意図的な非接触操作を行っていないと想定されるからである。
また、ステップSB4において、制御部20は、第1センサ部141〜第4センサ部144のうち、検出値のピーク(最大値)が、予め定められた所定の閾値を超えないものが1つでもある場合は、種類の特定を行わないと判別する。このような場合は、ユーザが意図的な非接触操作を行っていないと想定されるからである。
また、ステップSB4において、制御部20は、所定の記憶領域に記憶した情報に基づいて、ユーザの手が以下のような動きをしたか否かを判別する。すなわち、制御部20は、赤外線センサユニット14に対してユーザの手が遠くから近くへ接近した後、一定距離内にユーザの手が位置している状態が所定期間継続する動きをしたか否かを判別する。そして、ユーザの手がこのような動きをしたと判別した場合、制御部20は、種類の特定を行わないと判別する。このようなユーザの手の動きは、ユーザの意図的な非接触操作に係る動きではなく、ユーザが車載装置1に設けられた操作スイッチ12を操作する場合に行われる動きだからである。
以上、非接触操作の種類の特定を行わないと判別する場合を例示したが、どのような場合に特定を行わないと判別するかは、事前のテストやシミュレーションの結果に基づいて、ユーザの意図的な非接触操作を解析対象とするという観点の下、事前に設定される。
非接触操作の種類の特定を行わない場合(ステップSB4:NO)、制御部20は、センサ信号認識処理を終了する。
非接触操作の種類の特定を行う場合(ステップSB4:YES)、制御部20は、以下の処理を行う(ステップSB5)。
ステップSB5において、制御部20は、検出値がピークとなるセンサ部の順番(以下、「ピーク順番」という。)を取得する。図10の例では、ピーク順番は、第1センサ部141→第2センサ部142→第4センサ部144→第3センサ部143の順番となる。以下、第1センサ部141、第2センサ部142、第3センサ部143、及び、第4センサ部144のそれぞれについて、適宜、センサS1、センサS2、センサS3、及び、センサS4と表現する。
図11は、本実施形態で取り得るピーク順番のパターンを示す図である。本実施形態では、各センサ部が図3(A)で示す態様で配置され、各センサ部の検出範囲が図3(B)で示す状態となるため、ピーク順番のパターンは、図11で示すパターンP1〜パターンP16の16通りある。
さらに、ステップSB5において、制御部20は、ピーク順番が1番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP1)と、ピーク順番が2番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP2)との時間差KAを算出する。さらに、制御部20は、ピーク順番が2番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP2)と、ピーク順番が3番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP3)との時間差KBを算出する。さらに、制御部20は、ピーク順番が3番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP3)と、ピーク順番が4番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP4)との時間差KCを算出する。さらに、制御部20は、ピーク順番が1番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP1)と、ピーク順番が4番目のセンサ部の検出値がピークとなったときの経過時間(図10の例では、経過時間TP4)との時間差KXを算出する。
さらに、ステップSB5において、制御部20は、時間差KXに占める時間差KAの割合(時間差KA/時間差KX。以下、「第1比率α」と表現する。)と、時間差KXに占める時間差KBの割合(時間差KB/時間差KX。以下、「第2比率β」と表現する。)と、時間差KXに占める時間差KCの割合(時間差KC/時間差KX。以下、「第3比率γ」と表現する。)を求める。
続くステップSB6において、制御部20は、第1比率αと、第3比率γとを比較し、これらの値の差が予め定められた所定の閾値を下回るか否かを判別する(ステップSB6)。ここで、ユーザの手が、検出範囲AA内で直線的に移動し、かつ、検出範囲AAの中心O(図3(B)参照)付近を通過する非接触操作が行われた場合、第1比率αと、第3比率γとの値が略一致する。これを踏まえ、ステップSB6で、制御部20は、ユーザの手が検出範囲AA内で直線的に移動し、かつ、検出範囲AAの中心O(図3(B)参照)付近を通過する非接触操作、換言すれば、ユーザによる意図的な非接触操作、が行われたか否かを判別している。なお、所定の閾値は、ユーザの意図的な非接触操作を検出するという観点の下、事前のテストやシミュレーションの結果を反映して、定められる。
第1比率αと、第3比率γとの値の差が、所定の閾値を下回らない場合(ステップSB6:NO)、制御部20は、非接触操作の種類の特定を行うことなく、センサ信号認識処理を終了する。
第1比率αと第3比率γとの差が所定の閾値を下回る場合(ステップSB6:YES)、制御部20は、ステップSA3で決定したテーブルを使用して、非接触操作の種類を特定する(ステップSB7)。以下、第1テーブルTB1の説明をとおして、各テーブルのデータ構造を説明し、非接触操作の種類の特定の方法について説明する。
図12は、第1テーブルTB1のデータ構造を示す図である。上述したように、第1テーブルTB1は、動作モードが第1モードの場合に使用されるテーブルである。
図12に示すように、第1テーブルTB1の1件のレコードは、ピーク順番のパターン(以下、「ピーク順番パターン」という。)を示す情報を格納するパターンフィールドFA1を有する。
また、第1テーブルTB1の1件のレコードは、時間差比較情報フィールドFA2を有する。時間差比較情報フィールドF2には、時間差KAの値が時間差KBの値未満であることを示す情報(図12では、「KA<KB」と表現。)、時間差KAの値が時間差KBの値以上であることを示す情報(図12では、「KA≧KB」と表現。)、又は、時間差KAと時間差KBとの大小関係を問わないことを示す情報(図12では、「ANY」と表現。)が格納される。
また、第1テーブルTB1の1件のレコードは、所定方向操作フィールドFA3を有する。所定方向操作フィールドFA3には、8種類の所定方向操作のいずれかを示す情報が格納される。
また、第1テーブルTB1の1件のレコードは、第1比率フィールドFA4を有する。第1比率フィールドFA4には、第1比率αの範囲を示す情報が格納される。
また、第1テーブルTB1の1件のレコードは、第2比率フィールドFA5を有する。第2比率フィールドFA5には、第2比率βの範囲を示す情報が格納される。
第1テーブルTB1の1件のレコードは、以下のことを示す。すなわち、第1テーブルTB1の1件のレコードは、ステップB5で制御部20が取得したピーク順番を示す情報がパターンフィールドFA1に格納されており、取得した時間差KAと時間差KBとの大小関係を示す情報が時間差比較情報フィールドFA2に格納されており、取得した第1比率αが第1比率フィールドFA4に格納された情報が示す範囲内にあり、かつ、取得した第2比率βが第2比率フィールドFA5に格納された情報が示す範囲内にある場合、ユーザに行われた非接触操作は、所定方向操作フィールドFA3に格納された情報が示す所定方向操作である、ということを示す。
例えば、図12の1件目のレコードR1は、ピーク順番パターンがパターンP1であり、時間差KAが時間差KBよりも小さく、第1比率αが「値A1min≦α≦値A1max」の範囲内にあり、かつ、第2比率βが「値B1min≦β≦値B1max」の範囲内にある場合、行われた非接触操作が下方向操作であることを示す。また、2件目のレコードR2は、ピーク順番パターンがパターンP1であり、時間差KAが時間差KB以上であり、第1比率αが「値A2min≦α≦値A2max」の範囲内にあり、かつ、第2比率βが「値B2min≦β≦値B2max」の範囲内にある場合、行われた非接触操作が右斜め下方向操作であることを示す。また、3件目のレコードR3は、ピーク順番パターンがパターンP2であり、第1比率αが「値A3min≦α≦値A3max」の範囲内にあり、かつ、第2比率βが「値B3min≦β≦値B3max」の範囲内にある場合、時間差KAと時間差KBとの大小関係にかかわらず、行われた非接触操作が下方向操作であることを示す。
第1テーブルTB1の各レコードにおいて、第1比率αの範囲と、第2比率βの範囲は、以下のことを意味し、また、以下のように設定される。
図14は、図12の第1テーブルTB1の1件目のレコードR1の説明に利用する図であり、(A)は各センサ部の検出値の波形を示し、(B)は検出範囲AAを示す。
レコードR1では、時間差KA<時間差KBである。このため、各センサ部の検出値の波形は、図14(A)のようになる。また、レコードR1では、ピーク順番パターンがパターンP1(センサS1→センサS2→センサS4→センサS3)である。このため、ピーク順番パターンがパターンP1であり、時間差KA<時間差KBである非接触操作に際し、ユーザの手は、図14(B)で矢印YJ1によって示すように、検出範囲AAの中心Oを通って上下方向に延びる軸Yに対して、反時計回りに所定の角度だけ傾いて右斜め下方向へ向かって移動したものと想定される。つまり、ユーザの手が下方向操作に対応する動きをしたものと想定される。そして、ピーク順番パターンがパターンP1であり、かつ、時間差KA<時間差KBである場合において、下方向操作とみなす傾きの範囲(図14(B)の角度θ1の範囲)は、第1比率α(≒第3比率γ)と、第2比率βの範囲を規定することによって、一定の確度をもって定めることができる。以上を踏まえ、レコードR1の第1比率フィールドFA4、及び、第2比率フィールドFA5には、角度θ1の範囲(下方向操作とみなすユーザの手の移動の範囲)を規定するような第1比率αの範囲、及び、第2比率βの範囲を示す情報が格納される。
図15は、図12の第1テーブルTB1の2件目のレコードR2の説明に利用する図であり、(A)は各センサ部の検出値の波形を示し、(B)は検出範囲AAを示す。
レコードR2では、時間差KA≧時間差KBである。このため、各センサ部の検出値の波形は、図15(A)のようになる。また、レコードR2では、ピーク順番パターンがパターンP1(センサS1→センサS2→センサS4→センサS3)である。このため、ピーク順番パターンがパターンP1であり、時間差KA≧時間差KBである非接触操作に際し、ユーザの手は、図15(B)で矢印YJ2によって示すように、軸Yに対して、上記で例示した時間差KA<時間差KBの場合よりも反時計回りに大きく傾いて、右斜め下方向へ向かって移動したものと想定される。つまり、ユーザの手が、右斜め下方向操作に対応する動きをしたものと想定される。そして、右斜め下方向操作とみなす傾きの範囲(図15(B)の角度θ2の範囲)は、第1比率α(≒第3比率γ)と、第2比率βの範囲を規定することによって、一定の確度をもって定めることができる。以上を踏まえ、レコードR2の第1比率フィールドFA4、及び、第2比率フィールドFA5には、角度θ2の範囲(右斜め下方向操作とみなすユーザの手の移動の範囲)を規定するような第1比率αの範囲、及び、第2比率βの範囲を示す情報が格納される。
図13(A)は第2テーブルTB2のデータ構造を示し、図13(B)は第3テーブルTB3のデータ構造を示す。
図12と、図13の各テーブルの比較により明らかなとおり、各テーブルのデータ構造は同じであるが、各テーブルは、それぞれ対応するレコードについて、第1比率フィールドFA4、及び、第2比率フィールドFA5に格納される情報の内容が異なっている。すなわち、各テーブルでは、1の所定方向操作について、当該1の所定方向操作が行われたと認識する手の動きの範囲が異なっている。
特に、第1モードに係る第1テーブルTB1と、第3モードに係る第3テーブルTB3とでは、第1比率フィールドFA4、及び、第2比率フィールドFA5に格納される情報の内容に以下の違いがある。
図16は、第1モードと、第3モードとについて、所定方向操作と認識する手の動きの範囲の相違の説明に利用する図である。図16(A)は、第1モードにおいて、右方向操作、及び、左方向操作と認識されるユーザの手の動きの範囲を、検出範囲AAの中心Oを中心として形成される角度θ3を用いて模式的に示す。図16(B)は、第3モードにおいて、右方向操作、及び、左方向操作と認識されるユーザの手の動きの範囲を、検出範囲AAの中心Oを中心として形成される角度θ4を用いて模式的に示す。
図16に示すように、第3モードでは、第1モードと比較して、右方向操作、及び、左方向操作と認識するユーザの手の動きの範囲が大きい。つまり、角度θ4>角度θ3となっている。なお、角度θ4>角度θ3となるように、第1テーブルTB1、及び、第3テーブルTB3の対応するレコードの、第1比率フィールドFA4、及び、第2比率フィールドFA5には適切な内容の情報が格納される。
このように、第3モードでは、第1モードと比較して、右方向操作、及び、左方向操作と認識するユーザの手の動きの範囲が大きい理由は、以下である。すなわち、第3モードでは、有効な所定方向操作は、右方向操作、及び、左方向操作の2つである。従って、表示中の画面に設定された動作モードが第3モードの場合、ユーザが行う意図的な非接触操作は、右方向操作、及び、左方向操作である。このため、右方向操作、及び、左方向操作の認識の範囲を、第1モードと比較して広く設定することにより、ユーザが右方向操作、及び、左方向操作を行った場合に、有効な操作として認識される確立を高めることができ、ユーザの利便性が向上する。
以上のように、本実施形態では、上下左右方向に向かって手を移動させる所定方向操作について、ユーザの手の動きにある程度の傾きがあった場合であっても、有効な所定方向操作として認識される。このため、ユーザが所定方向操作を行う際に、手の移動に上下左右方向に沿った厳密な動きが要求されず、ユーザの操作性、利便性が向上する。特に、本実施形態では、非接触操作を行うユーザは、車両に搭乗しており、姿勢を容易に動かすことができないが、上述のように、手の移動に上下左右方向に沿った厳密な動きが要求されないため、効果的にユーザの操作性、利便性を向上できる。さらに、本実施形態では、所定方向操作として斜め方向に向かって手が移動する操作(右斜め下方向操作等)を設けており、第1モード及び第3モードでは、このような操作は有効とされない。このため、ユーザの手の動きが許容される範囲を超えて傾いており、ユーザの意図した操作を明確に判別できない場合は、操作に基づく処理が行われない。従って、ユーザの意図に反する処理が行われることを防止できる。
さて、図9のステップSB7において、まず、制御部20は、ステップSB5で取得したピーク順番、時間差KA、時間差KBに基づいて、図8のステップSA3で選択したテーブルのレコードの中から、対応する1のレコードを特定する。すなわち、制御部20は、選択したテーブルのレコードの中から、取得したピーク順番に対応するピーク順番パターンを示す情報がパターンフィールドFA1に格納され、取得した時間差KAと時間差KBとの大小関係を示す情報が時間差比較情報フィールドFA2に格納された1のレコードを特定する。次いで、制御部20は、ステップSB5で取得した第1比率αが、特定したレコードの第1比率フィールドFA4に格納された情報が示す範囲内にあり、かつ、取得した第2比率βが、特定したレコードの第2比率フィールドFA5に格納された情報が示す範囲内にあるか否かを判別する。第1比率α、及び、第2比率βが、共に、対応する範囲内にある場合、制御部20は、特定したレコードの所定方向操作フィールドFA3に格納された情報が示す所定方向操作を、ユーザにより行われた非接触操作の種類として特定する。一方、第1比率α、及び、第2比率βのいずれかが、対応する範囲内にない場合、制御部20は、非接触操作の種類の特定を行わない。
制御部20は、ステップSB7の処理後、センサ信号認識処理を終了する。
図8に示すように、ステップSA4のセンサ信号認識処理が終了した後、制御部20は、センサ信号認識処理により非接触操作の種類が特定されたか否かを判別する(ステップSA5)。非接触操作の種類が特定されなかった場合(ステップSA5:NO)、制御部20は、処理手順をステップSA4へ戻し、再び、センサ信号認識処理を実行する。
センサ信号認識処理により非接触操作の種類が特定された場合(ステップSA5:YES)、制御部20は、特定された非接触操作の種類が、表示中の画面に設定された動作モードで有効な非接触操作であるか否かを判別する(ステップSA6)。上述したように、第1モードでは、下方向操作、上方向操作、右方向操作、及び、左方向操作が有効な非接触操作である。第2モードでは、上記4つの操作に加え、右斜め下方向操作、右斜め上方向操作、左斜め上方向操作、及び、左斜め下方向操作が有効な非接触操作である。換言すれば、第2モードでは、任意の方向に向かって手が移動する操作が有効である。第3モードでは、右方向操作、及び、左方向操作が有効な非接触操作である。
特定された非接触操作の種類が、対応する動作モードで有効とされた非接触操作ではない場合(ステップSA6:NO)、制御部20は、処理手順をステップSA4へ戻す。
特定された種類の非接触操作が、対応する動作モードで有効とされた非接触操作である場合(ステップSA6:YES)、制御部20は、対応する処理を実行する(ステップSA7)。対応する処理は、例えば、図5を用いて説明した画面の遷移である。なお、対応する処理は、画面の遷移だけではなく、制御部20が実行可能なものであればどのような処理であってもよい。
次いで、制御部20は、ステップSA7で実行した処理が、新たな画面の表示を伴う処理であったか否かを判別する(ステップSA8)。新たな画面の表示を伴う処理であった場合(ステップSA8:YES)、制御部20は、処理手順をステップSA1へ移行する。
ステップSA7で実行した処理が、新たな画面の表示を伴う処理ではない場合、(ステップSA8:NO)、制御部20は、処理手順をステップSA4へ移行し、再び、センサ信号認識処理を実行する。
以上説明したように、本実施形態に係る車載装置1(非接触操作検出装置)は、非接触操作を検出すると共に、第1モードでは、検出した非接触操作を解析し、第1のルールに基づいて非接触操作が有効な操作か否かを判別し、第2モードでは、検出した非接触操作を解析し、第2のルールに基づいて非接触操作が有効な操作か否かを判別する制御部20を備える。
この構成によれば、動作モードに応じて、有効とする非接触操作を異ならせることが可能である。
また、本実施形態では、第2モードに係る第2のルールは、第1モードに係る第1のルールと比較して、非接触操作を有効とする範囲が広く設定されている。
この構成によれば、動作モードとして第2モードを設定することにより、第1モードを設定する場合と比較して、より広い範囲のユーザの手の動きに係る非接触操作を有効とすることができる。
また、本実施形態では、第1モードに係る第1のルールは、ユーザの手(検出対象)が所定の方向に向かって移動する操作に対応した非接触操作を有効とするルールであり、第2のルールは、ユーザの手が任意の方向に向かって移動する操作に対応した非接触操作を有効とするルールである。より具体的には、第1のルールは、ユーザの手が上下左右の4方向に向かって移動する操作に対応した非接触操作を有効とするルールである。
この構成によれば、動作モードを第1モードに設定することにより、ユーザの手が上下左右の4方向に向かって移動する操作に対応した非接触操作を有効とすることができ、動作モードを第2モードに設定することにより、ユーザの手が任意の方向に向かって移動する操作に対応した非接触操作を有効とすることができる。
また、本実施形態に係る車載装置1は、ユーザの手が近接するほど大きな値の検出値を出力する第1センサ部141(第1のセンサ)、第2センサ部142(第2のセンサ)、第3センサ部143(第3のセンサ)、及び、第4センサ部144(第4のセンサ)の4つのセンサ部を備える。そして、第1センサ部141の右方に第2センサ部142が設けられ、この第2センサ部142の下方に第3センサ部143が設けられ、この第3センサ部143の左方に第4センサ部144が設けられ、この第4センサ部144の上方に第1センサ部141が設けられる。制御部20は、4つのセンサ部の検出値の態様に基づいて、検出された非接触操作が、ユーザの手が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出する。
この構成によれば、4つのセンサ部を有する構成、及び、4つのセンサ部の配置状態を踏まえて、的確に、検出された非接触操作が、ユーザの手が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出できる。
また、本実施形態では、制御部20は、4つのセンサ部の検出値のピークの変化に基づいて、検出した非接触操作が、検出対象が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出する。
この構成によれば、4つのセンサ部を有する構成、及び、4つのセンサ部の配置状態を踏まえて、4つのセンサ部の検出値のピークの変化を利用して、的確に、検出された非接触操作が、ユーザの手が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出できる。
また、本実施形態では、制御部20は、第3モードでは、第3のルールに基づいて、非接触操作が有効な操作か否かを判別する。第3のルールは、ユーザの手が左右の2方向に向かって移動する操作に対応した非接触操作を有効とするルールである。
この構成によれば、動作モードとして第3モードを設定することにより、ユーザの手が上下左右の4方向に向かって移動する操作に対応した非接触操作を有効とすることができる。
また、本実施形態では、車載装置1は、タッチパネル11(表示部)を備える。そして、タッチパネル11に表示可能な画面の種類ごとに、動作モードが設定される。
この構成によれば、画面ごとに、動作モードを設定して、有効とする非接触操作を異ならせることができる。
なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、図2は、本願発明を理解容易にするために、車載装置1の機能構成を主な処理内容に応じて分類して示した概略図であり、各装置の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理は、1つのプログラムで実現されてもよいし。複数のプログラムで実現されてもよい。
また、フローチャートの処理単位は、車載装置1の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。車載装置1の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、処理の順番も、図示した例に限られるものではない。
また、上述した実施形態では、赤外線を用いて非接触操作を検出する構成であったが、非接触操作の検出方法、解析方法は上述した実施形態で例示した方法に限らない。また、赤外線に代えて、超音波を用いたり、撮影装置によって撮影された画像データを用いたりする等、他の手段によって非接触操作を検出する構成であってもよい。
また、上述した実施形態では、第1モードで上下左右方向にユーザの手が移動する非接触操作を有効な操作とし、また、第2モードで左右方向にユーザの手が移動する非接触操作を有効な操作としていた。しかしながら、例えば、斜め方向にユーザの手が移動する非接触操作を有効とする等、有効とする非接触操作におけるユーザの手の移動方向は、上下左右に対応する方向に限ら無い。
1 車載装置(非接触操作検出装置)
20 制御部
141 第1センサ部(第1のセンサ)
142 第2センサ部(第2のセンサ)
143 第3センサ部(第3のセンサ)
144 第4センサ部(第4のセンサ)

Claims (12)

  1. 車両に搭載される非接触操作検出装置において、
    検出範囲における検出対象の位置によって出力する検出値が変化する複数のセンサと、
    前記センサの検出値の態様に基づいて非接触操作を検出し、各々の前記センサの検出値がピークとなったときの経過時間を取得する制御部と、を備え、
    前記制御部は、
    前記非接触操作を検出する動作モードとして、第1モードと第2モードのうちいずれかの動作モードを実行し、
    前記第1モードでは、第1のルールに基づいて非接触操作の種類を特定して、非接触操作が有効な操作か否かを判別し、前記第2モードでは、第2のルールに基づいて非接触操作の種類を特定して、非接触操作が有効な操作か否かを判別し、前記第1モード及び前記第2モードで複数の前記センサのうち検出値がピークとなった時間を取得できない前記センサがある場合は非接触操作の種類の特定を行わず、
    前記第1モードと前記第2モードでは、前記センサの前記検出範囲において前記非接触操作を検出する検出範囲が異なり、実行する動作モードの検出範囲で前記非接触操作を検出することを特徴とする非接触操作検出装置。
  2. 表示内容の異なる複数の種類の画面を表示する表示部を備え、
    画面の種類ごとに、前記制御部が実行する動作モードが設定され、
    前記制御部は、前記表示部に表示させる画面を遷移させた場合に、遷移させた後の画面に対応して設定された動作モードで前記非接触操作を検出する
    ことを特徴とする請求項1に記載の非接触操作検出装置。
  3. 前記第1モードで前記非接触操作を検出する検出範囲と、前記第2モードにおいて前記非接触操作を検出する検出範囲とは、前記センサの前記検出範囲において重複する部分を含み、
    前記第2モードでは、前記第1モードと比較して、前記センサの前記検出範囲において非接触操作を有効とする範囲が広く設定されていることを特徴とする請求項1又は2に記載の非接触操作検出装置。
  4. 前記第1のルールは、前記検出対象が所定の方向に向かって移動する操作に対応した非接触操作を有効とするルールであり、
    前記第2のルールは、前記検出対象が任意の方向に向かって移動する操作に対応した非接触操作を有効とするルールであることを特徴とする請求項1から3のいずれかに記載の非接触操作検出装置。
  5. 前記第1のルールは、前記検出対象が所定の4方向に向かって移動する操作に対応した非接触操作を有効とするルールであることを特徴とする請求項4に記載の非接触操作検出装置。
  6. 前記所定の4方向は、上下左右に対応する方向であることを特徴とする請求項5に記載の非接触操作検出装置。
  7. 前記検出対象が近接するほど大きな値の検出値を出力する第1のセンサ、第2のセンサ、第3のセンサ、及び、第4のセンサの4つの前記センサを備え、
    4つの前記センサを、前記第1のセンサの右方に前記第2のセンサが位置し、前記第2のセンサの下方に前記第3のセンサが位置し、前記第3のセンサの左方に前記第4のセンサが位置し、前記第4のセンサの上方に前記第1のセンサが位置するように、上下左右に並べて配置し、
    前記制御部は、
    4つの前記センサの検出値の態様に基づいて、検出された非接触操作が、前記検出対象が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出することを特徴とする請求項6に記載の非接触操作検出装置。
  8. 前記制御部は、
    4つの前記センサの検出値のピークの変化に基づいて、検出した非接触操作が、検出対象が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出することを特徴とする請求項7に記載の非接触操作検出装置。
  9. 前記制御部は、前記非接触操作を検出する動作モードとして、前記第1モードおよび前記第2モードに加え第3モードを実行可能であり、
    前記第3モードでは、第3のルールに基づいて非接触操作が有効な操作か否かを判別し、有効な場合、解析結果に基づく処理を行い、
    前記第1のルールは、検出対象が所定の4方向に向かって移動する操作に対応した非接触操作を有効とするルールであり、
    前記第2のルールは、検出対象が任意の方向に向かって移動する操作に対応した非接触操作を有効とするルールであり、
    前記第3のルールは、検出対象が所定の2方向に向かって移動する操作に対応した非接触操作を有効とするルールであることを特徴とする請求項1から3のいずれかに記載の非接触操作検出装置。
  10. 前記所定の4方向は、上下左右に対応する方向であり、
    前記所定の2方向は、左右に対応する方向であることを特徴とする請求項9に記載の非接触操作検出装置。
  11. 前記検出対象が近接するほど大きな値の検出値を出力する第1のセンサ、第2のセンサ、第3のセンサ、及び、第4のセンサの4つの前記センサを備え、
    4つの前記センサを、前記第1のセンサの右方に前記第2のセンサが位置し、前記第2のセンサの下方に前記第3のセンサが位置し、前記第3のセンサの左方に前記第4のセンサが位置し、前記第4のセンサの上方に前記第1のセンサが位置するように、上下左右に並べて配置し、
    前記制御部は、
    4つの前記センサの検出値の態様に基づいて、検出された非接触操作が、検出対象が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否か、又は、検出対象が左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出することを特徴とする請求項10に記載の非接触操作検出装置。
  12. 前記制御部は、
    4つの前記センサの検出値のピークの変化に基づいて、検出された非接触操作が、検出対象が上下左右方向に対応する方向に向かって移動する操作に対応するものであるか否か、又は、検出対象が左右方向に対応する方向に向かって移動する操作に対応するものであるか否かを検出することを特徴とする請求項11に記載の非接触操作検出装置。
JP2016531139A 2014-06-30 2015-03-24 非接触操作検出装置 Active JP6401268B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014133874 2014-06-30
JP2014133874 2014-06-30
PCT/JP2015/058914 WO2016002270A1 (ja) 2014-06-30 2015-03-24 非接触操作検出装置

Publications (2)

Publication Number Publication Date
JPWO2016002270A1 JPWO2016002270A1 (ja) 2017-04-27
JP6401268B2 true JP6401268B2 (ja) 2018-10-10

Family

ID=55018829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531139A Active JP6401268B2 (ja) 2014-06-30 2015-03-24 非接触操作検出装置

Country Status (5)

Country Link
US (1) US10067570B2 (ja)
EP (1) EP3165993B1 (ja)
JP (1) JP6401268B2 (ja)
CN (1) CN106462252B (ja)
WO (1) WO2016002270A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6443418B2 (ja) * 2016-10-03 2018-12-26 トヨタ自動車株式会社 車両運転支援装置
EP3748476B1 (en) * 2018-02-22 2024-05-08 Kyocera Corporation Electronic device, control method, and program
JP7048151B2 (ja) * 2018-03-30 2022-04-05 Necソリューションイノベータ株式会社 モーション判定装置、モーション判定方法、及びプログラム
CN109164914A (zh) * 2018-08-01 2019-01-08 江苏捷阳科技股份有限公司 一种智能晾衣机手势识别系统及手势控制晾衣机的方法
US11367413B2 (en) * 2020-02-03 2022-06-21 Panasonic Liquid Crystal Display Co., Ltd. Display device, method for displaying image data and mobile terminal

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066805A (ja) 1998-08-18 2000-03-03 Fujitsu Ltd 赤外線検出式入力装置
JP2002083302A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
JP2005135439A (ja) 2004-12-28 2005-05-26 Toshiba Corp 操作入力装置
JP2007072564A (ja) 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP4754913B2 (ja) * 2005-09-16 2011-08-24 旭化成エレクトロニクス株式会社 位置検出装置、情報入力装置、及びモーションスイッチ
JP4645680B2 (ja) 2008-05-14 2011-03-09 株式会社デンソー 入力装置
WO2009155465A1 (en) * 2008-06-18 2009-12-23 Oblong Industries, Inc. Gesture-based control system for vehicle interfaces
JP5247389B2 (ja) * 2008-12-01 2013-07-24 富士通テン株式会社 ディスプレイ装置
CN102741781A (zh) * 2009-12-04 2012-10-17 奈克斯特控股公司 用于位置探测的传感器方法和系统
US9296299B2 (en) * 2011-11-16 2016-03-29 Autoconnect Holdings Llc Behavioral tracking and vehicle applications
JP5617581B2 (ja) 2010-12-08 2014-11-05 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体
JP5865615B2 (ja) 2011-06-30 2016-02-17 株式会社東芝 電子機器および制御方法
US20130135188A1 (en) 2011-11-30 2013-05-30 Qualcomm Mems Technologies, Inc. Gesture-responsive user interface for an electronic device
US20130155237A1 (en) * 2011-12-16 2013-06-20 Microsoft Corporation Interacting with a mobile device within a vehicle using gestures
JP2013195326A (ja) 2012-03-22 2013-09-30 Pioneer Electronic Corp 物体検出装置、物体検出方法、物体検出用プログラム及び情報記録媒体
AU2013205613B2 (en) 2012-05-04 2017-12-21 Samsung Electronics Co., Ltd. Terminal and method for controlling the same based on spatial interaction
JP5916566B2 (ja) 2012-08-29 2016-05-11 アルパイン株式会社 情報システム

Also Published As

Publication number Publication date
EP3165993A4 (en) 2018-01-10
CN106462252A (zh) 2017-02-22
EP3165993A1 (en) 2017-05-10
EP3165993B1 (en) 2020-05-06
CN106462252B (zh) 2019-05-21
WO2016002270A1 (ja) 2016-01-07
US20170102777A1 (en) 2017-04-13
JPWO2016002270A1 (ja) 2017-04-27
US10067570B2 (en) 2018-09-04

Similar Documents

Publication Publication Date Title
JP6401268B2 (ja) 非接触操作検出装置
US9842503B2 (en) Driving support apparatus and driving support method
WO2016132876A1 (ja) 情報処理装置
US20150227221A1 (en) Mobile terminal device, on-vehicle device, and on-vehicle system
JP2016018223A (ja) 情報処理装置
KR20110045762A (ko) 이동 단말기의 내비게이션 방법 및 그 장치
WO2011054549A1 (en) Electronic device having a proximity based touch screen
JP2016038621A (ja) 空間入力システム
US11181909B2 (en) Remote vehicle control device, remote vehicle control system, and remote vehicle control method
JP2011169621A (ja) 地図表示装置
JP6663824B2 (ja) ナビゲーションシステム及びコンピュータプログラム
KR100716337B1 (ko) 네비게이션 지도화면 터치영역 확대 표시 방법
JP2012122777A (ja) 車載装置
JP2007127447A (ja) 経路案内装置、情報センタ、経路案内システム、及び経路案内方法
US20220295017A1 (en) Rendezvous assistance apparatus, rendezvous assistance system, and rendezvous assistance method
WO2017163551A1 (ja) サーバ装置、情報システム、車載装置
JP2009163436A (ja) 情報端末装置、コンピュータプログラム及び表示方法
JP2022153363A (ja) サーバ装置及び情報処理方法並びにサーバプログラム
JP4807635B2 (ja) ナビゲーション装置
JP6360405B2 (ja) 情報処理システム、及び、情報処理方法
JP2020057441A (ja) 操作装置、制御方法、プログラム及び記憶媒体
JP5785478B2 (ja) 車載機およびナビゲーション画像割り込み表示方法
KR20110055267A (ko) 이동 단말기의 내비게이션 방법 및 그 장치
JP2021174237A (ja) 検索制御装置、コンピュータプログラム、および検索システム
JP2010122128A (ja) ナビゲーション装置、および、ナビゲーション装置における道路検索方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180906

R150 Certificate of patent or registration of utility model

Ref document number: 6401268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150