JP2014021748A - 操作入力装置及びそれを用いた車載機器 - Google Patents

操作入力装置及びそれを用いた車載機器 Download PDF

Info

Publication number
JP2014021748A
JP2014021748A JP2012160277A JP2012160277A JP2014021748A JP 2014021748 A JP2014021748 A JP 2014021748A JP 2012160277 A JP2012160277 A JP 2012160277A JP 2012160277 A JP2012160277 A JP 2012160277A JP 2014021748 A JP2014021748 A JP 2014021748A
Authority
JP
Japan
Prior art keywords
unit
region
input device
area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012160277A
Other languages
English (en)
Inventor
Takashi Yasumoto
貴史 安本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012160277A priority Critical patent/JP2014021748A/ja
Publication of JP2014021748A publication Critical patent/JP2014021748A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

【課題】操作者の手等の本来の操作物体以外の物による誤った入力操作を防止しつつ種々の操作入力を可能とする「操作入力装置」を提供することである。
【解決手段】表示部の画面上に設けられる操作部と、撮影手段と、撮影により得られる映像から、所定の操作物体が、前記操作部の前方側近傍の第1領域及び該第1領域より前記操作部から離れた第2領域のいずれにあるかを判定する操作物体領域判定手段と、前記操作物体が前記第1領域にあると判定されたときに、前記操作部を有効にする操作部制御手段と、前記操作物体が前記第2領域にあると判定されたときに、前記撮影手段から得られる前記映像から前記操作物体の形態を判定するジェスチャ判定手段と、該ジェスチャ判定手段により判定された前記操作物体の形態に応じた操作情報を出力する操作情報出力手段とを有する構成となる。
【選択図】図2

Description

本発明は、表示部の画面上に設けられたタッチパネル等の操作部を備え、操作者の手等の操作物体による入力操作に基づいた操作情報を出力する操作入力装置及びそれを備えた操作入力装置及びそれを用いた車載機器に関する。
従来、特許文献1記載のタッチパネルを有する電子機器が知られている。この電子機器では、タッチパネルにかざした、あるいはタッチしたポインティング手段(操作者の指等)の当該タッチパネル上での位置に基づいて、被制御部の制御がなされる。そして、ポインティング手段のタッチパネルからの距離に応じて当該ポインティング手段の検出感度の調整がなされる。このような電子機器によれば、タッチパネルから離れているポインティング手段(操作者の指等)によっても、タッチパネルに対して、被制御部を制御するための入力操作を適正に行うことができる。
特開2011−248712号公報
しかしながら、前述した従来の電子機器では、ポインティング手段の具体的な認識がなされないので、本来のポインティング手段以外の物がタッチパネルの近傍にあると、その物によって誤った入力操作がなされてしまうおそれがある。特に、タッチパネルからポインティング手段が離れているときほど検出感度が高くなるので、タッチパネルから比較的離れた物によっても誤った操作入力がなされてしまう可能性がある。
本発明は、このような事情に鑑みてなされたもので、操作者の手等の本来の操作物体以外の物による誤った入力操作を防止しつつ種々の操作入力を可能とする操作入力装置を提供するものである。
本発明に係る操作入力装置は、表示部の画面上に設けられ、入力操作に基づいた操作情報を出力する操作部と、前記操作部の前方の予め定めた撮影領域を撮影する撮影手段と、該撮影手段での撮影により得られる映像から、所定の操作物体が、前記操作部の前方側近傍の第1領域及び該第1領域より前記操作部から離れた第2領域のいずれにあるかを判定する操作物体領域判定手段と、該操作物体領域判定手段により前記操作物体が前記第1領域にあると判定されたときに、前記操作部を有効にする操作部制御手段と、前記操作物体領域判定手段により前記操作物体が前記第2領域にあると判定されたときに、前記撮影手段から得られる前記映像から前記操作物体の動き及び形の少なくともいずれか一方である当該操作物体の形態を判定するジェスチャ判定手段と、該ジェスチャ判定手段により判定された前記操作物体の動き及び形の少なくとも一方に応じた操作情報を出力する操作情報出力手段とを有する構成となる。
このような構成によれば、撮影手段での撮影により得られる映像から、操作物体が第1領域にあると判定されると、操作部が有効になり、その後、その操作部の入力操作に基づいた操作情報が出力される。また、前記映像から、操作物体が前記第1領域より前記操作部から離れた第2領域にあると判定されると、その映像から操作物体の動き及び形の少なくとも一方である当該操作物体の形態が判定され、その操作物体の形態に基づいた操作情報が出力される。
本発明に係る操作入力装置は、前記操作部がタッチパネルであり、前記操作部制御手段は、前記操作物体が前記第1領域にあると判定されたときに、前記タッチパネルに対するタッチ操作を有効にする構成とすることができる。
このような構成によれば、撮影手段での撮影により得られる映像から、操作物体が第1領域にあると判定されると、タッチパネルが有効になり、その後、第1領域から引き続き動く操作物体がそのタッチパネルに触れることにより、そのタッチ入力操作に基づいた操作情報が出力される。
本発明に係る操作入力装置において、前記操作部制御手段は、前記操作部を有効にした後、所定時間内に前記操作物体による当該操作部の操作がなされなかったときに、当該操作部を無効にする構成とすることができる。
このような構成によれば、操作部制御手段が操作部を有効にした後、所定時間内に操作物体による操作部の操作がなされなかったときにその操作部が無効になるので、操作部の無駄な動作を抑制することができる。
本発明に係る操作入力装置は、前記操作物体領域判定手段により前記操作物体が前記第1領域にあると判定されたときに、前記表示部の画面上に当該操作部を操作するための操作メニューを表示させる表示制御手段を有する構成とすることができる。
このような構成によれば、操作物体が第1領域にあるときに、表示部の画面上に操作部を操作するための操作メニューを表示させるので、操作メニューを視認した操作者はより的確かつ迅速に操作部の操作ができるようになる。
本発明に係る操作入力装置において、前記表示制御手段は、前記表示部の画面上に前記操作メニューを表示させた後、前記操作部が無効になったときに、当該表示部への表示を止める構成とすることができる。
このような構成によれば、表示部の画面上に操作メニューが表示された後、操作部が無効になったときに、当該操作メニューの表示を止めるので、表示部の無駄な動作を抑制することができる。
本発明に係る操作入力装置において、前記第1領域は、前記表示部の画面に正対した領域を含む構成とすることができる。
このような構成によれば、第1領域が表示部の画面に正対した領域を含むので、操作物体が第1領域に進入して操作部が有効になった後に、引き続きスムーズに表示部の画面上に設けられた操作部に触れる(入力操作)ことができる。
本発明に係る操作入力装置において、前記第2領域は、前記表示部の画面に正対した領域を含む構成とすることができる。
このような構成によれば、第2領域が表示部の画面に正対した領域を含むので、操作者が表示部の画面を目印にその第2領域を把握することができる。このため、操作物体を動かしたり、操作物体の形を変えたりすることを当該第2領域にて確実に行うことができる。
本発明に係る操作入力装置において、前記第2領域は、前記第1領域より広い構成とすることができる。
このような構成によれば、第2領域が第1領域より広いので、操作物体をできるだけ広い領域で動かしたり、操作物体の形を変えたりすることができるようになる。
本発明に係る操作入力装置において、前記操作物体は、操作者の手であって、前記ジェスチャ判定手段は、前記撮影手段から得られる前記映像から前記操作者の手の形態を判定する構成とすることができる。
このような構成によれば、撮影手段での撮影により得られる映像から、操作者の手が第2領域にあると判定されると、その映像から操作者の手の形態(動き及び形の少なくとも一方)が判定され、その手の形態に基づいた操作情報が出力される。
本発明に係る車載機器は、前述したいずれかの操作入力装置を備え、前記操作部及び操作情報出力手段からの操作情報に基づいた動作を行う構成となる。
このような構成によれば、撮影手段での撮影により得られる映像から、操作物体が第1領域にあると判定されると、操作部が有効になり、その後、その操作部の入力操作に基づいた操作情報に従って車載機器が動作する。また、前記映像から、操作物体が第2領域にあると判定されると、その映像から操作物体の形態(動き及び形の少なくとも一方)が判定され、その操作物体の形態に基づいた操作情報に基づいて車載機器が動作する。
本発明に係る操作入力装置によれば、撮影手段での撮影により得られる映像から判定される操作物体の位置(第1領域または第2領域)や形態(動き及び形の少なくとも一方)に基づいた操作情報が出力されるので、本来の操作物体以外の物による誤った入力操作が防止され、また、表示部の画面上に設けられた操作部を有効にするための操作入力や操作物体の形態に基づいた種々の操作入力が可能となる。
本発明の実施の形態に係る操作入力装置を備える車載機器の構成を示すブロック図である。 図1に示す操作入力装置における操作処理ユニットが実行する処理の手順を示すフローチャートである。 図1に示す操作入力装置を構成するジェスチャセンサユニットの設置位置を示す車室内の一例を示す図である。 図1に示す操作入力装置における車載機器の領域を判定する領域を示す図である。 図4に示すジェスチャ操作領域(第2領域)での操作者の手(操作物体)の動きの一例(その1)を示す図である。 図4に示すジェスチャ操作領域(第2領域)での操作者の手(操作物体)の動きの一例(その2)を示す図である。 図4に示すジェスチャ操作領域(第2領域)での操作者の手(操作物体)の形の一例を示す図である。 図1に示す車載機器の表示部の表示画面の一例を示す図(その1)である。 図1に示す車載機器の表示部の表示画面の一例を示す図(その2)である。 図1に示す車載機器の表示部に操作メニュー画面が表示された一例を示す図である。
本発明の実施の形態について図面を用いて説明する。
本発明の実施の一形態に係る操作入力装置を備える車載機器は、図1に示すように構成される。
図1において、この車載機器100は、コンピュータユニット(例えば、CPU)によって構成される処理ユニット11を有している。処理ユニット11には、各種音源及び映像源(例えば、CD、DVD等)の再生処理が可能なAVユニット17、及び自車両のルート案内等のナビゲーション処理を行うナビゲーションユニット18が接続されている。また、処理ユニット11には、スピーカ16と接続される出力回路15が接続されており、処理ユニット11の制御のもと、AVユニット17及びナビゲーションユニット18の処理に基づいた音声信号が出力回路15を介してスピーカ16から出力される。加えて、処理ユニット11には、AVユニット17及びナビゲーションユニット18にて利用される楽曲情報や地図情報等の各情報が記憶される記憶部14(例えば、ハードディスク)と、LCD等によって構成され、映像等の各種情報を表示する表示部13と、操作入力装置20とが接続されている。
操作入力装置20は、ジェスチャセンサユニット21と、表示部13の画面上に設けられ、タッチ入力操作に基づいた操作情報を出力するタッチパネル22(操作部)とから構成される。ジェスチャセンサユニット21は、予め定めた撮影領域を撮影するカメラ211(撮影手段)と、カメラ211に接続される操作処理ユニット212とを備えている。ジェスチャセンサユニット21は、例えば、図3に示すように、車室の天井部分に設置されている。操作処理ユニット212は、カメラ211によって撮影された映像から、操作物体(操作者であるユーザの手)の動き及び形の少なくとも一方であるユーザの手の形態である、いわゆるジェスチャを認識し、ユーザの手の形態(ジェスチャ)のそれぞれに対応する操作情報を車載機器100の処理ユニット11に出力するようになっている。処理ユニット11は、その操作情報に基づいた処理を実行する。
車載機器100操作入力装置20における操作処理ユニット212は、図2に示す手順に従って、操作入力処理を実行する。
図2において、操作処理ユニット212は、カメラ211によって撮影された映像から物体が検出されるのを確認する(S11)。カメラ211は、車室内の天井部分に取り付けられ、その撮影領域は、表示部13及びタッチパネル22に正対する領域を撮影する領域を含むように予め設定されている(図3参照)。このカメラ211によって撮影された映像から物体が検出されると(S11でYES)、その検出物体がユーザの手(操作物体)であるか否かを判定する(S12)。これによって、検出物体がユーザの手であると判定されると(S12でYES)、操作処理ユニット212は、ユーザの手がタッチパネル22の前方側近側に正対する領域であるタッチパネル操作待ち領域TE(第1領域)及びタッチパネル操作待ち領域TEよりタッチパネル22から離れた領域であるジェスチャ操作領域GEのいずれにあるのかを判定する(S13、S16:操作物体領域判定手段)。
ここで、タッチパネル操作待ち領域TE及びジェスチャ操作領域GEについて、図4に基づいて詳しく説明する。図4に示すように、カメラ211は、一点鎖線S1で示すエリアを撮影する。カメラ211の撮影領域S1内には、表示部13の画面(タッチパネル22)に正対するタッチパネル操作待ち領域TEとジェスチャ領域操作領域GEとが設定されている。このタッチパネル操作待ち領域TEは、例えば、タッチパネル22から約10cmの領域となっている。このタッチパネル操作待ち領域TEとジェスチャ操作領域GEとは境界線L1によって区分けされている。このジェスチャ操作領域GEは、境界線L1から約30cmの領域となっており、タッチパネル操作待ち領域TEよりも広く設定されている。このジェスチャ操作領域GEでは、ユーザの手(操作物体)の動き及び形の少なくとも一方であるユーザの手の形態(いわゆる、ジェスチャ)を認識する領域として設定されている。
図2に戻って、ユーザの手がジェスチャ操作領域GEにあると判定されたときに(S13でYES)、操作処理ユニット212は、カメラ211により撮影された映像からユーザの手の動き又は形の少なくとも一方からなるジェスチャを判定する(S14:ジェスチャ判定手段)。ここで、操作処理ユニット212にて判定可能なユーザの手の動き又は形の少なくとも一方からなるジェスチャについて具体的に説明する。ジェスチャ操作領域GEにて認識することができるジェスチャは、例えば、図5、図6、及び図7に示すユーザの手の動き又は形である。図5に示すように、ユーザが手を開いた状態で表示部13及びタッチパネル22に対して平衡状態を保ったまま、その手を放射状のいずれかの方向に動かすジェスチャが認識されるようになっている。同じく、図6に示すように、ユーザが手を開いた状態で、その手を左右に傾けるジェスチャも同じく認識されるようになっている。さらには、図7に示すように、ユーザが表示部13及びタッチパネル22に対して平衡状態を保ったまま、上下左右を指し示すように手の形を異ならせたジェスチャも認識されるようになっている。
これによって、操作処理ユニット212は、ステップS14にて判定したユーザの手の動き又は形の少なくとも一方からなるジェスチャに対応した操作情報を処理ユニット11に出力する(S15:操作情報出力手段)。より具体的には、図8Aに示すように、表示部13に処理ユニット11及びナビゲーションユニット18による車両ナビゲーション処理が行われている際に、ジェスチャ操作領域GEにてユーザの手をH1からH2方向に平行移動させると、操作処理ユニット212は、このジェスチャに対応する操作情報を処理ユニット11に出力する。この操作情報に従って、車載機器100の処理ユニット11は、表示部13に表示されるナビゲーション画面を例えば、図8Aの状態から図8Bに示す状態にその表示を変更する。
一方、ユーザの手がジェスチャ操作領域GEにないと判定されたときに(S13でNO)、操作処理ユニット212は、ユーザの手がタッチパネル操作待ち領域TEにあるか否かを判定する(S16:操作物体領域判定手段)。これによって、ユーザの手がタッチパネル操作待ち領域TEにあると判定されたときに(S16でYES)、この制御処理ユニット212での判定結果に基づいて処理ユニット11は、タッチパネル22を有効にする(S17:操作部制御手段)。より具体的には、処理ユニット11は、それまでに電源の供給を止めていたタッチパネル22に対して、ユーザの手によるタッチ操作が有効となるように電源を供給する。また、この際、処理ユニット11は、表示部13にユーザの手によるタッチパネルの操作を行うための操作メニューを表示させる(S18:表示制御手段)。これにより、処理ユニット11は、操作メニューを、例えば、図9に示すように表示部13に表示させる。これにより、表示部13に表示された操作メニューを視認しつつ、ユーザによるタッチパネル22の操作が可能となる。
そして、処理ユニット11は、所定時間内にタッチパネル22に対してタッチ操作があったか否かを判定する(S19:操作部制御手段)。これによって、所定時間内にタッチパネル22に対する操作があると(S19でYES)、タッチパネル22から当該タッチパネル22に対するタッチ位置の座標に対応する操作情報が出力される(S20)。そして、処理ユニット11は、タッチパネル22からの操作情報を取得する。さらに、処理ユニット11は、ユーザによるタッチパネル22へのタッチ操作がないかを確認する(S19)。一方、所定時間内にタッチパネル22に対してタッチ操作がなかったと判定されたとき(S19でNO)に、処理ユニット11は、タッチパネル22への電力供給を停止し、タッチパネル22をOFF状態にする(S21:操作部制御手段)。また、図2には図示していないが、操作処理ユニット212は、これと同時に表示部13に表示させた操作メニューの表示を停止させるために、処理ユニット11に操作メニューの表示を停止させる(表示制御手段)。
上述したような操作入力装置20を備える車載機器100によれば、操作処理ユニット212が表示部13の画面上に設けられたタッチパネル22の前方の予め定められた領域をカメラ211にて撮影し、撮影により得られる映像から、操作物体である操作者の手が
タッチパネル操作待ち領域TEかジェスチャ操作領域GEのいずれにあるのかを判定し、ユーザの手がタッチパネル操作待ち領域TEにあると判定されたときに、タッチパネル22に電力供給がなされ、その後、そのタッチパネル22のタッチ入力操作に基づいた操作情報が処理ユニット11に出力される。また、カメラ211の映像から、ユーザの手がジェスチャ操作領域GEにあると判定されると、その映像から操作物体である操作者の手の動き及び形の少なくとも一方である操作者の手の形態(いわゆるジェスチャ)が判定され、そのジェスチャに基づいた操作情報が処理ユニット11に出力される。
なお、本発明の実施の形態では、操作処理ユニット212が各種処理を行うこととしたが、操作処理ユニット212を設けることなく、当該操作処理ユニット212の機能を備えた車載機器100の処理ユニット11がこれらの処理を行うこととしてもよい。
なお、図5、図6、及び図7において、ジェスチャ登録がなされる操作物体たる操作者(ユーザ)の手の動き又は形は、これに限定されることなく、他の動き又は形でもよい。
また、本発明の実施の形態において、操作物体は、操作者(ユーザ)の手として記載したが、もちろん、タッチペン等、タッチパネル22の操作に適した操作者の手に持つ操作物体であればどのようなものでもよい。
また、タッチパネル22を有効または無効にする場合に、電力供給を行う又は停止することとしたが、電力供給を有効無効のいずれの場合にも行いつつ、タッチパネル22を無効にする場合に、タッチパネル22の省電力モードを開始することとしてもよいし、タッチ操作にのみ反応しないように制御することとしてもよい。
以上、説明したように、本発明に係る操作入力装置及び車載機器は、操作者の手等の本来の操作物体以外の物による誤った入力操作を防止しつつ種々の操作入力ができるという効果を有し、表示部の画面上に設けられたタッチパネル等の操作部を備え、操作者の手等の操作物体による入力操作に基づいた操作情報を出力する操作入力装置及びそれを備えた操作入力装置及びそれを用いた車載機器として有用である。
11 処理ユニット
13 表示部
14 記憶部
15 出力回路
16 スピーカ
17 AVユニット
18 ナビゲーションユニット
20 操作入力装置
21 ジェスチャセンサユニット
22 操作部(タッチパネル)
100 車載機器
211 カメラ
212 操作処理ユニット

Claims (10)

  1. 表示部の画面上に設けられ、入力操作に基づいた操作情報を出力する操作部と、
    前記操作部の前方の予め定めた撮影領域を撮影する撮影手段と、
    該撮影手段での撮影により得られる映像から、所定の操作物体が、前記操作部の前方側近傍の第1領域及び該第1領域より前記操作部から離れた第2領域のいずれにあるかを判定する操作物体領域判定手段と、
    該操作物体領域判定手段により前記操作物体が前記第1領域にあると判定されたときに、前記操作部を有効にする操作部制御手段と、
    前記操作物体領域判定手段により前記操作物体が前記第2領域にあると判定されたときに、前記撮影手段から得られる前記映像から前記操作物体の動き及び形の少なくともいずれか一方である当該操作物体の形態を判定するジェスチャ判定手段と、
    該ジェスチャ判定手段により判定された前記操作物体の形態に応じた操作情報を出力する操作情報出力手段とを有する操作入力装置。
  2. 前記操作部がタッチパネルであり、
    前記操作部制御手段は、前記操作物体が前記第1領域にあると判定されたときに、前記タッチパネルに対するタッチ操作を有効にする請求項1に記載の操作入力装置。
  3. 前記操作部制御手段は、前記操作部を有効にした後、所定時間内に前記操作物体による当該操作部の操作がなされなかったときに、当該操作部を無効にする請求項1または2に記載の操作入力装置。
  4. 前記操作物体領域判定手段により前記操作物体が前記第1領域にあると判定されたときに、前記表示部の画面上に当該操作部を操作するための操作メニューを表示させる表示制御手段を有する請求項3に記載の操作入力装置。
  5. 前記表示制御手段は、前記表示部の画面上に前記操作メニューを表示させた後、前記操作部が無効になったときに、当該表示部への表示を止める請求項4に記載の操作入力装置。
  6. 前記第1領域は、前記表示部の画面に正対した領域を含む請求項1乃至5のいずれかに記載の操作入力装置。
  7. 前記第2領域は、前記表示部の画面に正対した領域を含む請求項6に記載の操作入力装置。
  8. 前記第2領域は、前記第1領域より広い請求項1乃至7のいずれかに記載の操作入力装置。
  9. 前記操作物体は、操作者の手であって、
    前記ジェスチャ判定手段は、前記撮影手段から得られる前記映像から前記操作者の手の形態を判定する請求項1乃至8のいずれかに記載の操作入力装置。
  10. 請求項1乃至9のいずれかに記載の操作入力装置を備え、
    前記操作部及び操作情報出力手段からの操作情報に基づいた動作を行う車載機器。
JP2012160277A 2012-07-19 2012-07-19 操作入力装置及びそれを用いた車載機器 Pending JP2014021748A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012160277A JP2014021748A (ja) 2012-07-19 2012-07-19 操作入力装置及びそれを用いた車載機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012160277A JP2014021748A (ja) 2012-07-19 2012-07-19 操作入力装置及びそれを用いた車載機器

Publications (1)

Publication Number Publication Date
JP2014021748A true JP2014021748A (ja) 2014-02-03

Family

ID=50196549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012160277A Pending JP2014021748A (ja) 2012-07-19 2012-07-19 操作入力装置及びそれを用いた車載機器

Country Status (1)

Country Link
JP (1) JP2014021748A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062410A (ja) * 2014-09-19 2016-04-25 コニカミノルタ株式会社 画像形成装置およびプログラム
WO2016157501A1 (ja) * 2015-04-02 2016-10-06 三菱電機株式会社 表示装置および表示方法
JP2017211884A (ja) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム
CN111186378A (zh) * 2020-01-15 2020-05-22 宁波吉利汽车研究开发有限公司 一种泊车影像控制方法、装置、设备和存储介质
JP2021191672A (ja) * 2019-12-24 2021-12-16 株式会社ユピテル 電子情報システム及びそのプログラム
JP2022551120A (ja) * 2019-10-21 2022-12-07 メルセデス・ベンツ グループ アクチェンゲゼルシャフト タッチ操作式ボタンの清掃モードを起動するための方法及び装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125614A (ja) * 1999-10-27 2001-05-11 Murata Mach Ltd タッチパネル付き工作機械制御装置
JP2011118511A (ja) * 2009-12-01 2011-06-16 Denso Corp 表示装置
JP2012003690A (ja) * 2010-06-21 2012-01-05 Toyota Infotechnology Center Co Ltd ユーザインタフェース装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125614A (ja) * 1999-10-27 2001-05-11 Murata Mach Ltd タッチパネル付き工作機械制御装置
JP2011118511A (ja) * 2009-12-01 2011-06-16 Denso Corp 表示装置
JP2012003690A (ja) * 2010-06-21 2012-01-05 Toyota Infotechnology Center Co Ltd ユーザインタフェース装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062410A (ja) * 2014-09-19 2016-04-25 コニカミノルタ株式会社 画像形成装置およびプログラム
WO2016157501A1 (ja) * 2015-04-02 2016-10-06 三菱電機株式会社 表示装置および表示方法
JP2017211884A (ja) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム
JP2022551120A (ja) * 2019-10-21 2022-12-07 メルセデス・ベンツ グループ アクチェンゲゼルシャフト タッチ操作式ボタンの清掃モードを起動するための方法及び装置
JP7291997B2 (ja) 2019-10-21 2023-06-16 メルセデス・ベンツ グループ アクチェンゲゼルシャフト タッチ操作式ボタンの清掃モードを起動するための方法及び装置
JP2021191672A (ja) * 2019-12-24 2021-12-16 株式会社ユピテル 電子情報システム及びそのプログラム
JP7214165B2 (ja) 2019-12-24 2023-01-30 株式会社ユピテル 電子情報システム及びそのプログラム
CN111186378A (zh) * 2020-01-15 2020-05-22 宁波吉利汽车研究开发有限公司 一种泊车影像控制方法、装置、设备和存储介质
CN111186378B (zh) * 2020-01-15 2022-06-14 宁波吉利汽车研究开发有限公司 一种泊车影像控制方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
US9547391B2 (en) Method for processing input and electronic device thereof
US20150015521A1 (en) Gesture input operation processing device
JP2014021748A (ja) 操作入力装置及びそれを用いた車載機器
US20130144463A1 (en) Configurable vehicle console
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
WO2011158605A1 (ja) 情報表示装置、及び、オンスクリーンボタンの移動操作方法
US20140281964A1 (en) Method and system for presenting guidance of gesture input on a touch pad
WO2019016936A1 (ja) 操作支援装置および操作支援方法
US20150227852A1 (en) Data processing device
JP2019175449A (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
JP2010108185A (ja) 表示制御システム、表示制御方法、及び表示制御プログラム
JP4753752B2 (ja) 車載電子機器およびメニュー提供方法
JP5098596B2 (ja) 車両用表示装置
US20110307827A1 (en) Display Processing Apparatus and Display Processing Method
JP6819539B2 (ja) ジェスチャ入力装置
TWM564749U (zh) 車輛多螢幕控制系統
JP2016051288A (ja) 車両用入力インターフェイス
JP2022170505A (ja) 情報処理装置及びプログラム
JP2014032502A (ja) 操作入力装置、それを用いた車載機器及び操作入力処理方法
JP2017027422A (ja) 表示装置及び表示処理方法
JP2015020677A (ja) 画像認識装置、ジェスチャ入力装置及びコンピュータプログラム
JP2015132906A (ja) 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム
US9438807B2 (en) Image pickup apparatus having touch panel, image processing method, and storage medium
JP6400352B2 (ja) 車両周辺表示装置
JPWO2019016878A1 (ja) 操作支援装置および操作支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160427